"Deepfake" como herramienta de manipulación y difusión de "fakenews" en formato de vídeo en las redes sociales
DOI:
https://doi.org/10.5195/biblios.2020.864Palabras clave:
Deepfake, Fakenews, Manipulación de imágenesResumen
Objetivo. La siguiente investigación pretende analizar los nuevos contenidos de difusión de información falsa, buscando así conceptualizar lo que serían las "deepfake" y las "fakenews" y las consecuencias de estas manipulaciones de imagen y difusión de noticias.
Metodo. Se desarrolló una investigación exploratoria con un relevamiento bibliográfico de materiales previamente publicados, como artículos de revistas científicas, en la que se realizó una adecuada revisión bibliográfica para aclarar y presentar el tema sobre los "deepfakes", que aún es poco conocido, así como presentar cómo se crea y manipula hasta su difusión rampante a través de las redes sociales.
Resultados. Es sabido que hoy en día los programas y aplicaciones para smartphones facilitan, de forma muy hábil, que los usuarios manipulen las imágenes con extrema facilidad, las llamadas fakeApp, que son herramientas que permiten alterar y manipular las imágenes de forma que no dejen pistas visuales de su alteración, y puedan ser indistinguibles de las auténticas. Un ejemplo del resultado de estas manipulaciones es el "deepfake", que es la técnica que sustituye la cara de una persona por otra en un vídeo, en el panorama actual es común ver vídeos falsos, que generan las "fakenews", o noticias falsas, muy difundidas en las redes sociales y que encajan ganando cierta credibilidad debido a la dificultad de distinguir la veracidad en la imagen que allí se muestra, por lo que lo imperceptible son las marcas de manipulación. Lo que facilita la producción de "fakenews", es que cualquier usuario con conocimientos limitados de programación y poco aprendizaje tecnológico puede crear "deepfakes" y este tipo de producción ha desencadenado retos para los profesionales forenses, que siguen encontrando diferencias significativas entre los "deepfakes" y los vídeos auténticos.
Citas
Afchar, D., Nozick, V., & Yamagishi, J. (2018). MesoNet: A compact facial video forgery detection network. arXiv:1809.00888v1 [cs.CV] 4 Sep 2018. Recuperado de https://arxiv.org/abs/1809.00888.
Bunk, J. , Bappy, J. , Mohammed, T. , Nataraj, L. , Flenner, A. , Manjunath, B. , Chandrasekaran,S., … Peterson, L. (2017). Detection and localization of image forgeries using resampling features and deep learning. arXiv:1707.00433v1 [cs.CV] 3 Jul 2017. Recuperado de https://arxiv.org/abs/1707.00433
Floridi, F. (2018). Artificial Intelligence, Deepfakes and a Future of Ectype. Springer Netherlands. 31, 317-321. doi:10.1007/s13347-018-0325-3.
Genesini, S. (2018). A pós-verdade é uma notícia falsa. Revista USP. São Paulo:116, 45-58.
Güera, D., Delp, E. J. (2018). Deepfake video detection using recurrent neural networks. In IEEE International Conference on Advanced Video and Signal-based Surveillance (to appear). Doi: 10.1109 / AVSS.2018.8639163
Hasan, H. R., Salah, K., (2019). Combating Deepfake Videos Using Blockchain and Smart Contracts. in IEEE Access. 7, 41596-41606. doi: 10.1109/ACCESS.2019.2905689.
Joseph, R. (2019). Fakebusters strike back: How to spot deep fakes, the manipulated videos that are the newest form of “fake news” to hit the internet. Index on Censorship, 48(1), 76–79. doi: https://doi.org/10.1177/0306422019841326
Koopman, M., Rodriguez, A. M., & Geradts, Z. (2018). Detection of Deepfake Video Manipulation.In: Conference: IMVIP, At Belfast. August 2018. Recuperado de https://www.researchgate.net/publication/329814168_Detection_of_Deepfake_Video_Manipulation
Korshunov, P., Marcel, S. (2018). DeepFakes: A new threat to face recognition? assessment and detection. arXiv:1812.08685v1 [cs.CV] 20 Dec 2018. Recuperado de http://publications.idiap.ch/downloads/reports/2018/Korshunov_Idiap-RR-18-2018.pdf
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature. 521,436-444. doi: 10.1038/nature14539.
Li, Y., Lyu, S. (2018). Exposing deepfake videos by detecting face warping artifacts. arXiv:1811.00656v1 [cs.CV]. Recuperado de https://arxiv.org/abs/1811.00656
Maras, M.-H., & Alexandrou, A. (2018). Determining authenticity of video evidence in the age of artificial intelligence and in the wake of Deepfake videos. The International Journal of Evidence & Proof, 23(3), 255–262. doi: https://doi.org/10.1177/1365712718807226
Miyoung, C., & Youngsook, J. (2016) Face recognition performance comparison between fake faces and live faces. Soft Computing 21(12), 3429-3437. Recuperado de https://link.springer.com/content/pdf/10.1007%2Fs00500-015-2019-4.pdf
Ngiam, J., Khosla, A., Mingyu, K., Juhan, N., Honglak, L., Ng, A.Y. (2011). Multimodal Deep Learning. Proceedings of the 28th International Conference on Machine Learning, ICML 2011. 689-696. Recuperado de https://www.researchgate.net/publication/221345149_Multimodal_Deep_Learning
Popescu, A. C, Farid, H. (2005). Exposing digital forgeries by detecting traces of resampling. in IEEE Transactions on Signal Processing. 53(2),758-767. doi: 10.1109/TSP.2004.839932
Sabir, E., Cheng, J., Jaiswal, A., AbdAlmageed, W., Masi, I., and Natarajan, P. (2019). Recurrent convolutional strategies for face manipulation detection in videos. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, 80-87. Recuperado de https://arxiv.org/abs/1905.00582
Sullivan, B. (2019). Charniak, E. An Introduction to Deep Learning. Perception, 48(8), 759–761. doi: https://doi.org/10.1177/0301006619857273
Tan, X., Li, Y., Liu, J., & Jiang, L. (2010). Face liveness detection from a single image with sparse low rank bilinear discriminative model, Computer Vision ECCV 2010. Springer, Berlin Heidelberg.
Xin, Y., Yuezun, L. & Siwei, L. (2018).Exposing Deep Fakes Using Inconsistent Head Poses. ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Brighton, United Kingdom, 2019. 8261-8265. doi: 10.1109/ICASSP.2019.8683164.
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Los autores que publican en esta revista están de acuerdo en los siguientes términos:
- El Autor retiene los Derechos sobre su Obra, donde el término "Obra" incluirá todos los objetos digitales que pueden resultar de la publicación electrónica posterior y/o distribución.
- Una vez aceptada la Obra, el Autor concede a la Editorial el derecho de la primera publicación de la Obra.
- Además el Autor le concederá a la Editorial y sus agentes el derecho permanente no exclusivo y licencia para publicar, archivar y hacer accesible la obra en su totalidad o en parte, en todas las formas de los medios ahora conocidos o en el futuro, bajo una Licencia Creative Commons de Reconocimiento 4.0 Internacional o su equivalente que, para evitar cualquier duda, permite a otros copiar, distribuir y comunicar públicamente la obra bajo la condición siguiente:
Reconocimiento - otros usuarios deben reconocer los créditos de la Obra de la manera especificada por el Autor o como se indica en el sitio web de la revista;
Entendido de que esta condición pueda ser modificada con permiso del Autor y que, cuando la Obra o cualquiera de sus elementos se halle en el dominio público según la legislación aplicable, que su estatus no esté en absoluto afectado por la licencia. - El Autor es capaz de entrar en acuerdos contractuales independientes, adicionales para la distribución no exclusiva de la versión de la Obra publicada en la revista (por ejemplo, publicarla en un repositorio institucional o publicarla en un libro) siempre y cuando se proporcione en el documento un reconocimiento de su publicación inicial en esta revista científica.
- A los Autores se les permite y apoya a publicar en línea un manuscrito previo (pero no la versión final de la Obra formateada en PDF para la Editorial), en repositorios institucionales o en sus páginas web, antes y durante el proceso de envío, ya que puede dar lugar a intercambios productivos, y a una citación más temprana del trabajo publicado. Dicha Obra después de su aceptación y publicación se deberá actualizar, incluyendo la referencia DOI (Digital Object Identifier) asignada por la Editorial y el enlace al resumen en línea de la versión final publicada en la revista.
- A petición de la Editorial, el Autor se compromete a comunicar y presentar oportunamente al Editor, por cuenta del mismo, las pruebas escritas de los permisos, licencias y autorizaciones para el uso de material de terceros incluido en la Obra, excepto lo determinado por la Editorial a cubrirse por los principios de uso justo.
- El Autor declara y garantiza que:
a. La Obra es un trabajo original del Autor;
b. El Autor no ha transferido y no transferirá, los derechos exclusivos sobre la Obra a un tercero;
c. La Obra no está en evaluación en otra revista científica;
d. La Obra no fue publicada en otra revista científica;
e. La Obra no contiene ninguna tergiversación o infracción al trabajo propiedad de otros autores o terceros, y
f. La Obra no contiene ninguna difamación, invasión de la privacidad, o cualquier otro asunto ilegal. - El Autor se compromete a indemnizar y eximir a la Editorial del incumplimiento por parte del Autor de las declaraciones y garantías contenidas en el párrafo 7 anterior, así como de cualquier reclamación o procedimiento relacionado con el uso y la publicación de la Editorial de cualquier contenido de la Obra, incluido el contenido de terceros.