Capítulo 4
Entrevistas

Hany Farid, especialista en deepfake, defiende la regulación gubernamental de gigantes de la tecnología

El Brexit y las elecciones estadounidenses muestran que la campaña de desinformación funciona, dijo

Raphael Hernandes

Hany Farid, de 54 años, dice que no sabe de dónde salió el apodo de "Sherlock Holmes de la modernidad", pero no tiene ningún problema en que lo llamen así. "He escuchado esto en la prensa durante muchos años. Me han llamado de cosas peores, así que supongo que no me importa".

Farid se especializa en el análisis forense de imágenes digitales y deepfakes, que prefiere llamar "contenido sintetizado por la IA (inteligencia artificial)" porque es "más descriptivo". Entre sus actividades, se encuentra su colaboración desde 2016 con la DARPA (Agencia de Proyectos de Investigación de Defensa Avanzada) para el desarrollo de tecnologías que combaten estos contenidos falsos.

En el último semestre, comenzó a enseñar en las escuelas de información e informática de la Universidad de California, Berkeley, después de diez años en la Facultad de Dartmouth; Ambas instituciones están en Estados Unidos.

Farid explica a Folha que el desarrollo de tecnologías para combatir el contenido falso que se difunde masivamente no es suficiente. Debe estar respaldado por una mayor responsabilidad asumida por plataformas como Facebook, YouTube y Twitter, así como por consumidores "más listos".

"Necesitamos comenzar a darnos cuenta de que estamos siendo manipulados, ya sea por plataformas, por malos actores, tanto en casa como en el extranjero, y tenemos que ser más críticos", dice.

Hany Farid, profesor de la Universidad de California
Hany Farid, profesor de la Universidad de California - Divulgação

Su libro "Fake Photos" (MIT Press, "Fotos falsas"), publicado en septiembre, ofrece consejos para que cualquiera pueda identificar fotos falsas con conocimientos técnicos mínimos, intermediarios y avanzados.

Una de estas técnicas es hacer una llamada "búsqueda inversa" de la imagen. En esta modalidad, la búsqueda se realiza utilizando la foto (en lugar de palabras) y la búsqueda es por su registro en Internet. Puedes hacerlo en webs como Tineye y Google Images. Así, es posible determinar el origen del contenido.

*

¿Cómo define usted la deepfake? El término mejor y más técnico es "contenido sintetizado por la IA". La razón por la que me gusta este término es que es más descriptivo. Primero, tenemos que entender que las imágenes falsas, los videos falsos, no son nuevos. Lo que ha cambiado es la automatización de la creación de audios y videos falsos. Esto es importante porque, históricamente, había media docena de personas en todo el mundo, como los estudios de Hollywood, con esta capacidad. Ahora, las masas tienen acceso para hacer esto. Esto cambia el juego en términos de campañas de desinformación on line.
Funciona así: tienes dos computadoras, una es el motor de síntesis y la otra es un detector. El motor de síntesis genera la imagen al azar combinando los píxeles. Se lo muestra al detector y pregunta "?es una imagen falsa?" El detector tiene millones y millones de imágenes de personas y responde "inténtelo de nuevo". Hace esto repetidamente hasta que el clasificador (o detector) responde "es perfecto".
Esto es lo que permite la democratización del acceso a la tecnología por parte de la persona común en Internet, algo que solía estar en manos de los estudios de Hollywood solamente.

¿Fue la creación de esta tecnología el punto de inflexión en la generación de contenido falso? Es difícil decir con precisión, pero diría que fue uno de los puntos clave. Hay mucho trabajo en gráficos de ordenador, visión computacional, que entran en juego.

¿Existe alguna diferencia cuando vemos un deepfake divertido, como poner la cara de Nicholas Cage en situaciones inusuales, o cuando hay algo como que un presidente dice algo que nunca dijo? Es exactamente la misma tecnología. La misma tecnología que hace que Donald Trump diga algo pone a Nicholas Cage en una película. Hay muchos efectos especiales geniales en Hollywood, se usan para entretenimiento, sátira ... Pero la misma tecnología puede convertirse en un arma.

¿Es fácil crear un deepfake? Porque lidiar con la IA no es exactamente así de simple para la mayoría de las personas... Hace dieciocho meses no era fácil, pero ahora puedes descargar los códigos. Lo que está pasando [la popularización] de debe a que muchos de los códigos para hacerlo están abiertos, la gente está creando las herramientas que pueden ser utilizadas por personas que no son especialistas informáticos.

Usted mencionó un cambio entre 12 y 18 meses. Con eso uno puede hacerse una idea de la velocidad de la evolución de la tecnología. ¿Qué espera del futuro? Creo que es muy difícil predecir el futuro, pero si la tendencia continúa así, y este es un gran "si", aunque todas las evidencias así lo indican, creo que lo que sucederá es que la sofisticación y el realismo del contenido falso seguirá creciendo y será cada vez más fácil de usar. Y las amenazas solo crecerán.
Cuando hablamos del futuro, necesitamos hablar sobre otras cosas, porque el impacto de deepfake no se debe solo a la IA. Si yo tuviera la capacidad de crear deepfakes, pero no pudiera distribuir este contenido, no sería un gran problema. Pero por supuesto que puedo, gracias a Facebook, Twitter y YouTube.
Y está el hecho de que la mayoría de las personas consumen contenido a una velocidad increíble en una sociedad muy polarizada.
Todas estas piezas se unen para crear este apocalipsis de desinformación. No es una cosa aislada. Realmente es la unión de todas estas piezas.

¿Es más fácil crear o detectar un fake? Siempre será más fácil crear. Mantenerse en el lado de la defensa en este caso es difícil. Piensa en los spam y virus. Si desea que el correo no deseado pase el filtro, simplemente dispare miles de millones de correo no deseado. Algunos de ellos lo lograrán.
Además, en el lado de la defensa, el campo cambia muy rápidamente. Cuando se desarrolla una tecnología para detectar un contenido fake, ya hemos recibido otro.
Por lo tanto, el objetivo no es detener las deepfakes y la desinformación, sino minimizar el impacto. Quitémosela de la mano al adolescente que estaba manipulando las elecciones de 2016 en los Estados Unidos desde Macedonia.

Entonces, ¿qué debemos hacer para minimizar el impacto de deepfakes? Por supuesto, necesitamos desarrollar tecnología para distinguir lo real de lo falso. Eso es lo que hago la mayor parte del tiempo.
Pero necesitamos plataformas como Facebook, Twitter y YouTube para asumir más responsabilidad de cómo se convirtieron en armas en todo el mundo.
Y nosotros también, como consumidores, necesitamos ser más inteligentes. Necesitamos comenzar a darnos cuenta de que estamos siendo manipulados, ya sea por plataformas, por malos actores. Necesitamos entender que leer una noticia en WhatsApp o Facebook no es lo mismo que en su periódico o en el New York Times.
Creo que una combinación de tecnología, políticas, educación y cambios de comportamiento será fundamental. Por encima de todo esto está la presión reguladora. Los gobiernos deben intervenir y decir "mira, esto es un desastre".

¿Ves a alguien logrando crear regulaciones que estén en la dirección correcta? Yo diría que, en el frente regulatorio, los europeos están en mejor lugar gracias a la GDPR (leyes de privacidad). Fueron muy agresivos. Los alemanes, los franceses, los británicos y la Unión Europea en su conjunto han sido buenos en estos temas. Esto en el lado regulatorio y legislativo.
En el lado político, las grandes compañías tecnológicas no se encuentran por ningún sitio.
En el lado de la tecnología, estamos mejorando. Estamos trabajando duro, pero siempre es una batalla constante.
En el lado humano, no lo sé. Parece que todos estamos en la misma situación en este momento.

¿Se puede resolver este problema realmente? Veo que está siendo gestionado o mitigado, pero no resuelto. Siempre ha habido noticias falsas y siempre existirán. Pero la escala y velocidad ahora se han vuelto increíblemente peligrosa. Como defino "éxito" aquí no se trata de eliminar las noticias falsas, sino de gestionarlas. Sospecho que serán años de trabajo.

¿Empeorará antes de mejorar? Probablemente. Porque lo que vemos aquí en EE UU con las elecciones y en el Reino Unido con el Brexit es que las noticias falsas y la información falsa funcionan. Francamente, después de lo que vimos de las campañas masivas de desinformación aquí en Estados Unidos, hicimos muy poco para mejorar la situación de cara a 2020. Creo que todavía estamos cuesta abajo. Y lo digo también porque las compañías de tecnología, a pesar del desastre que fueron las elecciones de 2016, hicieron muy poco para lidiar con las consecuencias de ello.

¿Qué deberían haber hecho las empresas de tecnología? ¿Todavía hay tiempo antes de las elecciones? Creo que el tiempo es corto. Creo que hay varias cosas que deben hacerse. Una es obviamente desarrollar tecnología. La otra, quizás más importante, es pensar en políticas coherentes para hacer frente a las campañas de desinformación. Y no he visto que las plataformas hagan eso. Es muy difícil dividir la sátira, discursos protegidos, comentarios políticos, con contenido intencionalmente engañoso centrado en influir en las elecciones. Sin embargo, el valor combinado de Facebook, Google, YouTube y Twitter está en los cientos de miles de millones de dólares. Si no se puede invertir recursos en ello... Francamente, no tengo paciencia.

*¿Podría hablar un poco más sobre los efectos de este contenido falso en el mundo real y en la democracia?/ Me preocupan los videos falsos de candidatos presidenciales, fraude, pornografía no consensuada. ¿Cómo vas a creer todo lo que ves, lees o escuchas? Donald Trump, cuando algo no le gusta, dice "fake news, fake news, fake news" y la gente le cree, ¿dónde estamos como democracia?
Mi esposa tiene este gran dicho de que "antes de discutir cualquier cosa, debemos estar de acuerdo en los hechos". Porque podemos tener diferencias de opinión sobre la interpretación de los hechos, pero los hechos son los hechos. Tenemos que empezar por ahí.
La gente confundió la "era de la información" con la "era del conocimiento". Teníamos esta idea hace 20 años, esa información nos liberaría. Resulta que no es así. Hay una diferencia entre información y conocimiento, y confundimos estas dos cosas. Ahora tenemos que descubrir cómo transformar esta "era de la información" en "era del conocimiento".

¿Cómo transformamos la "era de la información" en la "era del conocimiento"? La respuesta corta es que no lo sé. Parte es educación. Necesitamos educar a la próxima generación para ser mejores ciudadanos digitales, como consumir contenido on line. Tenemos que animar a hacerlo, encontrar la manera de que las empresas de tecnología hagan su trabajo. Realmente creo que el veneno de internet es el modelo de negocio. El modelo de negocio de Silicon Valley es que todo es gratis, pero cojo todos tus datos y entrego anuncios. Primero, tienen serios problemas de privacidad que todavía estamos tratando de entender. Y en segundo lugar, se alienta a las personas a permanecer en la plataforma el mayor tiempo posible.
No sé cómo cambiar eso porque la verdad es que es increíblemente rentable. Y las personas, durante 20 años, estaban felices de no pagar nada y solo ahora están despertando. Mi esperanza es que el mercado arregle esto. Que algún empresario vendrá y dirá "podemos hacer algo mejor".

Hany Farid, profesor de la Universidad de California, em Berkeley, e especialista em análises de imagens falsas
Hany Farid, profesor de la Universidad de California, em Berkeley, e especialista em análises de imagens falsas - Divulgação

Usted ha estado trabajando para la DARPA [agencia estadounidense para investigar tecnologías de defensa] con el fin de desarrollar herramientas para combatir las deepfakes incluso antes de que se hicieran populares... Sí, comenzamos con esto muy pronto en 2015. Tan pronto como vimos la primera tecnología para automatizar la creación de fakes pudimos entender lo que iba a suceder. Vimos aparecer las deepfakes hace aproximadamente un año y medio y comenzamos a trabajar agresivamente contra ellas también.
Fundamentalmente, los problemas con los que estábamos lidiando no han cambiado. Fue solo la escala y el alcance lo que cambió.

¿Qué tipo de tecnología tienen y cuánto falta para ponerla en práctica? En términos de ponerlo en práctica en la escala de Internet, debe comprender que esto es muy difícil. Solo en Facebook, hay mil millones de cargas al día, en YouTube hay 500 horas de video por minuto. Operar a esta escala es increíblemente difícil y no estamos cerca de hacerlo. La estrategia es lanzar nuestras herramientas y ponerlas en manos de personas como usted, periodistas. Y permitir tener una herramienta más en su arsenal para determinar si las historias son válidas o no.

Si crear contenido falso es mucho más rápido que detectar contenido falso, ¿cómo puede ayudar la tecnología? La esperanza es que cuando un video llegue a la prensa y ella quiera comprobar si es real o no, puede usar algunas de las herramientas que nosotros y otros estamos desarrollando. Después, básicamente, clasifique los videos como falsos o no.
Eso es solo la mitad de la apuesta, como sabemos. Porque entonces necesitas que la gente realmente crea en los medios y en las redes sociales para que dejen de distribuir el contenido [falso]. Pero es, en nuestra opinión, el primer paso.

Traducido por AZAHARA MARTÍN ORTEGA

Lea el artículo original