"Deepfake" como herramienta de manipulación y difusión de "fakenews" en formato de vídeo en las redes sociales

Cristiane Pantoja De Moraes

Resumen


Objetivo. La siguiente investigación pretende analizar los nuevos contenidos de difusión de información falsa, buscando así conceptualizar lo que serían las "deepfake" y las "fakenews" y las consecuencias de estas manipulaciones de imagen y difusión de noticias.

Metodo. Se desarrolló una investigación exploratoria con un relevamiento bibliográfico de materiales previamente publicados, como artículos de revistas científicas, en la que se realizó una adecuada revisión bibliográfica para aclarar y presentar el tema sobre los "deepfakes", que aún es poco conocido, así como presentar cómo se crea y manipula hasta su difusión rampante a través de las redes sociales.

Resultados. Es sabido que hoy en día los programas y aplicaciones para smartphones facilitan, de forma muy hábil, que los usuarios manipulen las imágenes con extrema facilidad, las llamadas fakeApp, que son herramientas que permiten alterar y manipular las imágenes de forma que no dejen pistas visuales de su alteración, y puedan ser indistinguibles de las auténticas. Un ejemplo del resultado de estas manipulaciones es el "deepfake", que es la técnica que sustituye la cara de una persona por otra en un vídeo, en el panorama actual es común ver vídeos falsos, que generan las "fakenews", o noticias falsas, muy difundidas en las redes sociales y que encajan ganando cierta credibilidad debido a la dificultad de distinguir la veracidad en la imagen que allí se muestra, por lo que lo imperceptible son las marcas de manipulación. Lo que facilita la producción de "fakenews", es que cualquier usuario con conocimientos limitados de programación y poco aprendizaje tecnológico puede crear "deepfakes" y este tipo de producción ha desencadenado retos para los profesionales forenses, que siguen encontrando diferencias significativas entre los "deepfakes" y los vídeos auténticos.


Palabras clave


Deepfake; Fakenews; Manipulación de imágenes

Texto completo:

PDF (Português (Brasil))

Referencias


Afchar, D., Nozick, V., & Yamagishi, J. (2018). MesoNet: A compact facial video forgery detection network. arXiv:1809.00888v1 [cs.CV] 4 Sep 2018. Recuperado de https://arxiv.org/abs/1809.00888.

Bunk, J. , Bappy, J. , Mohammed, T. , Nataraj, L. , Flenner, A. , Manjunath, B. , Chandrasekaran,S., … Peterson, L. (2017). Detection and localization of image forgeries using resampling features and deep learning. arXiv:1707.00433v1 [cs.CV] 3 Jul 2017. Recuperado de https://arxiv.org/abs/1707.00433

Floridi, F. (2018). Artificial Intelligence, Deepfakes and a Future of Ectype. Springer Netherlands. 31, 317-321. doi:10.1007/s13347-018-0325-3.

Genesini, S. (2018). A pós-verdade é uma notícia falsa. Revista USP. São Paulo:116, 45-58.

Güera, D., Delp, E. J. (2018). Deepfake video detection using recurrent neural networks. In IEEE International Conference on Advanced Video and Signal-based Surveillance (to appear). Doi: 10.1109 / AVSS.2018.8639163

Hasan, H. R., Salah, K., (2019). Combating Deepfake Videos Using Blockchain and Smart Contracts. in IEEE Access. 7, 41596-41606. doi: 10.1109/ACCESS.2019.2905689.

Joseph, R. (2019). Fakebusters strike back: How to spot deep fakes, the manipulated videos that are the newest form of “fake news” to hit the internet. Index on Censorship, 48(1), 76–79. doi: https://doi.org/10.1177/0306422019841326

Koopman, M., Rodriguez, A. M., & Geradts, Z. (2018). Detection of Deepfake Video Manipulation.In: Conference: IMVIP, At Belfast. August 2018. Recuperado de https://www.researchgate.net/publication/329814168_Detection_of_Deepfake_Video_Manipulation

Korshunov, P., Marcel, S. (2018). DeepFakes: A new threat to face recognition? assessment and detection. arXiv:1812.08685v1 [cs.CV] 20 Dec 2018. Recuperado de http://publications.idiap.ch/downloads/reports/2018/Korshunov_Idiap-RR-18-2018.pdf

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature. 521,436-444. doi: 10.1038/nature14539.

Li, Y., Lyu, S. (2018). Exposing deepfake videos by detecting face warping artifacts. arXiv:1811.00656v1 [cs.CV]. Recuperado de https://arxiv.org/abs/1811.00656

Maras, M.-H., & Alexandrou, A. (2018). Determining authenticity of video evidence in the age of artificial intelligence and in the wake of Deepfake videos. The International Journal of Evidence & Proof, 23(3), 255–262. doi: https://doi.org/10.1177/1365712718807226

Miyoung, C., & Youngsook, J. (2016) Face recognition performance comparison between fake faces and live faces. Soft Computing 21(12), 3429-3437. Recuperado de https://link.springer.com/content/pdf/10.1007%2Fs00500-015-2019-4.pdf

Ngiam, J., Khosla, A., Mingyu, K., Juhan, N., Honglak, L., Ng, A.Y. (2011). Multimodal Deep Learning. Proceedings of the 28th International Conference on Machine Learning, ICML 2011. 689-696. Recuperado de https://www.researchgate.net/publication/221345149_Multimodal_Deep_Learning

Popescu, A. C, Farid, H. (2005). Exposing digital forgeries by detecting traces of resampling. in IEEE Transactions on Signal Processing. 53(2),758-767. doi: 10.1109/TSP.2004.839932

Sabir, E., Cheng, J., Jaiswal, A., AbdAlmageed, W., Masi, I., and Natarajan, P. (2019). Recurrent convolutional strategies for face manipulation detection in videos. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, 80-87. Recuperado de https://arxiv.org/abs/1905.00582

Sullivan, B. (2019). Charniak, E. An Introduction to Deep Learning. Perception, 48(8), 759–761. doi: https://doi.org/10.1177/0301006619857273

Tan, X., Li, Y., Liu, J., & Jiang, L. (2010). Face liveness detection from a single image with sparse low rank bilinear discriminative model, Computer Vision ECCV 2010. Springer, Berlin Heidelberg.

Xin, Y., Yuezun, L. & Siwei, L. (2018).Exposing Deep Fakes Using Inconsistent Head Poses. ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Brighton, United Kingdom, 2019. 8261-8265. doi: 10.1109/ICASSP.2019.8683164.




DOI: https://doi.org/10.5195/biblios.2020.864

Enlaces refback

  • No hay ningún enlace refback.




Copyright (c) 2020 Cristiane Pantoja De Moraes

Licencia de Creative Commons
Este obra está bajo una licencia de Creative Commons Reconocimiento 4.0 Internacional.