Tecnología

Qué son los ”deepfakes” y por qué pueden ser muy peligrosos

Son videos creados con inteligencia artificial en los que, por ejemplo, un programa reemplaza el rostro de una persona por otro.

Telemundo

BOGOTÁ, Colombia - Los "deepfakes" pueden hacer bailar "TikToks" a la reina de Inglaterra, Isabel II, o revivir a la princesa Leia en Star Wars.

Son videos creados con inteligencia artificial en los que un programa reemplaza la cara de una persona por la de otra, y son tan verosímiles que es difícil darse cuenta de que son mentira.

Mantente al tanto de todas las noticias de actualidad y de lo último que ocurre en nuestra comunidad descargando la aplicación de Telemundo 51 para iOS o Android.

Las imágenes manipuladas se generan con algoritmos que "leen" los rostros faciales de decenas de fotografías y videos tomadas desde distintos ángulos. Con esa información, el programa consigue recrear la voz y la imagen de una persona simulando sus gesticulaciones sobre la cara de otra.

EL USO DE ''DEEPFAKES'' ESTÁ MUY DESARROLLADO

Los mejores "softwares" utilizan una gran cantidad de recursos audiovisuales y cada vez que crean un "deepfake" están mejorando sus algoritmos para hacerlo mejor a la próxima, gracias al "machine learning", métodos computacionales y estadísticos que permiten a los ordenadores aprender tareas basadas en datos existentes.

El uso de los "deepfakes" no tiene que ser intrínsecamente malo, señala a EFE Idoia Salazar, presidenta y cofundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA).

Pueden resucitar a famosos ya fallecidos, como hizo la cervecera Cruzcampo en un anuncio que revivió a la cantante española Lola Flores durante unos minutos, o "ahorrar costes en películas que puedan prescindir de actores reales para las secuencias más peligrosas", añade la experta.

Pero en las manos equivocadas, pueden convertirse en una herramienta para desinformar de una forma mucho más sofisticada que las mentiras falsas al uso.

Pueden poner palabras en la boca de un presidente que inviten al desorden público, o desprestigiar a activistas haciéndoles aparecer en falsos videos pornográficos.

De hecho, el término "deepfake" nació en 2017 por un usuario de la plataforma Reddit con ese nombre que subió videos con los rostros de famosas como Taylor Swift o Gal Gadot en el cuerpo de actrices porno.

El gigante del comercio electrónico Amazon pidió permiso al gobierno de Estados Unidos para enviar dos satélites proveedores de internet de alta velocidad al espacio en 2022, una de las apuestas de futuro de la compañía.

Para Salazar, "el nivel de alarma ahora mismo debe de ser elevado", porque en cuanto a la desinformación, "los deepfakes pueden ser tremendamente peligrosos".

Cuando una persona ve algo por escrito, añade Salazar, puede intuir por la tipografía que es un contenido modificado, pero cuando una persona ve una imagen que se mueve y se expresa con naturalidad "se lo va a creer casi seguro".

Por otra parte, la periodista Claire Wardle, cofundadora y directora de First Draft, organización líder en el combate a la desinformación, advierte en un artículo en The New York Times que el "alarmismo" en torno a los "deepfakes" puede ser aprovechado por políticos para refutar que aparecieron en un video cometiendo un crimen o un hecho reprobable.

Recomendaba grupos de usuarios que violaban sus propias reglas. Para ver más de Telemundo, visita https://www.nbc.com/networks/telemundo

Por ejemplo, el expresidente de Estados Unidos, Donald Trump, puso en duda que fuese él quien aparecía en un video filtrado antes de las elecciones presidenciales de 2016 en el que se lo veía haciendo comentarios groseros sobre las mujeres.

Precisamente esa línea brumosa entre la verdad y la ficción catalizó un intento de golpe de Estado en Gabón hace casi tres años. En 2018, en el país hacía meses que no se veía al presidente, Ali Bongo, lo que había espoleado rumores sobre su salud.

Cuando después de un largo tiempo reapareció en un video para dar el discurso de Año Nuevo, la rigidez y poca naturalidad de sus gestos despertaron sospechas de que era un "deepfake".

Celulares y computadoras tendrán vencimiento de sus certificados de autenticación.

Las dudas fueron un argumento más para sostener que el presidente era incapaz de gobernar, con mensajes que incluso decían que estaba muerto. El Ejército intentó dar un golpe de Estado una semana después.

The Washington Post investigó el video y consultó con expertos en inteligencia artificial que señalaron que es muy probable que fuera cierto y que la gestualidad artificial se debiera a secuelas de un derrame cerebral.

La empresa emergente Sentinel identificó desde 2019 un crecimiento del 900% de los "deepfakes", cuando se pasó de unas 14,500 a 145,000. La mayoría fueron compartidos en redes sociales y tuvieron cerca de 6,000 millones de visualizaciones.

¿Tienes un dispositivo inteligente de Amazon? Si es así, es muy probable que la empresa ya esté compartiendo tu conexión a internet con tus vecinos, a menos que le hayas dicho específicamente que no lo haga.

El crecimiento acelerado se debe a que cada vez es más fácil crearlas. EFE analizó un "deepfake" de la activista climática Greta Thunberg en el que aparece desnuda.

Las imágenes manipuladas habían sido creadas con una aplicación para el móvil, según confesaba el autor anónimo en la descripción del video.

Mientras los países siguen debatiendo su regulación, los expertos consultados por EFE insisten en la importancia de la cibereducación y del desarrollo de programas que los identifiquen.

LOS CONSEJOS DE UN EXPERTO EN CIBERSEGURIDAD

El experto en ciberseguridad, Juan David Cardona, dio algunos consejos a EFE que pueden ayudar a reconocerlos, como fijarse en la gesticulación de la persona que aparece en el video, ya que en los "deepfakes" siempre va a haber retrasos en los fotogramas o en la voz.

También puede haber movimientos en los que se desplace la imagen sobrepuesta y hay que fijarse si coincide el tono de piel entre la cara y el cuerpo.

Por último, aconseja mirar si la fuente de donde proviene el video es conocida y confiable. Si no lo es, buscar si aparece en otras fuentes respetables como periódicos.

Contáctanos