La lucha contra los bulos y la desinformación toma una nueva dimensión con la manipulación de videos difícilmente detectables, aunque el Pentágono ha empezado a mover ficha para evitar que se popularicen los videos falsos
El refranero español, tan jugoso, tiene consejos para todo. Una imagen vale más que mil palabras, se suele decir. Nuestros ojos, pensamos, son incapaces de engañarnos. La realidad es otra.Es una cuestión de fe. Estamos sometidos a tal sobreabundancia de información que descubrir las fuentes fiables resulta cada día más complicado. Durante un siglo el video y el audio han sido esenciales a la hora de construir una percepción de la realidad. Ha sido la base por la circulaba la verdad, ahora en entredicho por culpa de las nuevas tecnologías.
Las redes sociales son los espacios principales por donde las llamadas «fake news» o «noticias falsas» se mueven con mayor naturalidad. La tecnología, en cambio, ya está preparada para subir una velocidad más en el arte del engaño con las «mentiras profundas». Así se definen las «deep fakes». Videos manipulados que intentan colarte una mentira en boca de un dirigente político o cualquier personalidad famosas con dotes de influencia. La manipulación de las imágenes hiperrealistas se ha sofisticado rápidamente hasta el punto que son difícilmente detectables.
Los avances en inteligencia artificial empiezan a ser capaces de reproducir audio y video falsos de manera convincente, pero sobre todo mediante un proceso al alcance de cualquiera. Existen programas informáticos que se han aplicado a la industria del sexo. Software que permiten instaurar el rostro de una persona famosa sobre el cuerpo de una actriz de contenidos pornográficos, personalizando las fantasías sexuales. No ha tardado en ponerse en práctica esta capacidad a otro entorno, la de la política.
Lograr que una persona parezca decir o hacer algo que no ha dicho está llevando, según una investigación elaborada por CNN, a la guerra contra la desinformación a un nivel completamente nuevo. Los servicios de inteligencia de países como Estados Unidos ha dado la voz de alarma. Empiezan a trazar un protocolo de actuación para frenar este avance que puede provocar un caos social en caso de extenderse. Porque si no te puedes fiar de nada, en nada vas a creer. El Pentágono, a través de la Agencia de Proyectos de Investigación Avanzada de la Defensa (DARPA, por sus siglas en inglés), está trabajando con varias instituciones de investigación para adelantarse a estos vídeos manipulados.
Un campo de investigación
El objetivo es adelantarse al fenómeno, aunque para ello hay que bajar al barro. Desde la Universidad de Colorado en Denver, un grupo de investigadores trabajan en un programa informático capaz de generar vídeos manipulados muy convincentes. Crear «deep fakes» en toda regla. Para contrarrestar el envite, otros investigadores están desarrollando una tecnología preparada, teóricamente, para detectar qué es real y qué falso. Una medida que permitiría agilizar la lucha contra los bulos en redes sociales.
También están trabajando en detectar audios falsos. La inteligencia artificial está emergiendo como la próxima frontera que atravesar por las noticias falsas. Y podría provocar que los humanos vuelvan a tener que «adivinar» lo que está viendo con sus propios ojos. «Todavía no hemos llegado a la etapa en la que vemos cómo se usan los 'deep fakes' como armas, pero ese momento llegará», valoraba en AFP Robert Chesney, profesor de derecho en la Universidad de Texas.
Jorge Muñoz, experto en Deep Learning y Visión Artificial de Serendeepia, firma especializada en este área, reconoce que esta práctica «da un poco de miedo», aunque rebaja la preocupación porque, de momento, se necesitan ciertas consideraciones para lograr un grado de hiperrealismo: una gran cantidad de datos, vídeos de alta calidad y se se han ensayado con personajes famosos. Hace dos años, precisamente, se realizó una prueba con Barack Obama, expresidente de Estados Unidos. Su resultado fue espeluznante, y es difícil saber si se trata de una secuencia procesada por ordenador.
Este experto, sin embargo, considera que estas técnicas de «deep fakes» funcionan de manera más impactante, llegando incluso a sembrar la confusión, cuando se aplican únicamente a los rostros humanos. «Cuando solo tomas la cara se simplifica el problema. Tomar un cuerpo entero de una persona, con un fondo en el que trabajar, no se consigue ser totalmente realistas, pero ya existe un campo de investigación al respecto», añade.
Pese a lo sofisticado de estos videos falsos, que en manos de personas malintencionadas pueden contribuir a propagar bulos, diversos grupos de investigación ya se han puesto manos a la obra para desarrollar herramientas diseñadas para su detección. «Al mismo tiempo que se está creando contenidos falsos, también se está intentado crear sistemas para detectarlo», recalca Muñoz.
Este experto no pone el grito en el cielo, pero considera que, sin embargo, puede derivar en una situación impredecible: que sea más difícil creernos las cosas. «Lo que está pasando hoy en día con las noticias es que ya no vas a un solo medio, sino a tres o cuatro fuentes que son la que revisas. Intentas consultar varios y te crees antes lo que te dicen los contactos de tus redes sociales. Siempre va a haber una lucha que lo va a poner en duda», apunta.
A su juicio, «si se detecta [un video falso] puedes creerlo una temporada, pero tendrá sus repercusiones. Estas técnicas no se van a aplicar tanto como se está temiendo. No es tan fácil de crear y requiere mucho tiempo de dedicación. Además, cuando haces un video así te sirve para una uno montaje y no para otros». Pero hay argumentos para, al menos, empezar a dudar de lo que se ve. Es época de «fake news». De mentiras y bulos en internet. De «memes» que sirven de formato para la información, aunque a veces la falta de rigor sea lo habitual. Tiempo de sistemas de aprendizaje automático. Y de máquinas. Una era en la que el diseño gráfico ha evolucionado hasta tal punto que un software es capaz de crear rostros humanos de gran realismo, exactos a los reales. Personas que no existen.
Estos rostros han sido realizados por una máquina - NVIDIA
Un proyecto de Nvidia, multinacional de componentes informáticos y desarrolladora de tarjetas gráficas para ordenadores, ha logrado crear rostros sintéticos y artificiales cuyo realismo es tal que podría confundirse con una persona real. Mediante una red generativa antagónica (Generativa Adversarial Networks, en inglés), los ingenieros han conseguido que el sistema pueda «inventar» caras humanas a partir de una base de datos de rostros de personas, por lo que por el momento no se puede generar desde cero.
Pero su efecto sorprende. Y asusta, aunque las técnicas de modelaje y reproducción de rostros no es algo nuevo. La industria cinematográfica se ha aprovechado de las posibilidades de la época en algunos de sus productos audiovisuales. Una de las que tuvo más repercusión fue la aparición del actor Peter Cushing en «Star Wars: Rogue One»,resucitando virtualmente veinte años después de su fallecimiento. Un escenario que puede anticipar la creación de figuras artificiales para productos de entretenimiento en el futuro.
Publicar un comentario
Agregue aquí su comentario...