Capítulo 4
Entrevistas

Hany Farid, especialista em deepfake, defende regulação de governos sobre gigantes da tecnologia

Para perito, Brexit e eleição nos EUA mostram que campanha de desinformação funciona

Raphael Hernandes

Hany Farid, 54, diz não saber de onde surgiu o apelido de "Sherlock Holmes dos dias modernos", mas não vê problema em ser chamado assim. "Escuto isso na imprensa há muitos anos. Já me chamaram de coisa muito pior, então acho que não me importo."

Farid é especialista em análise forense de imagens digitais e em deepfakes, o que prefere chamar de "conteúdo sintetizado por inteligência artificial" por ser mais descritivo. Entre suas atividades, está a colaboração com a DARPA (Agência de Projetos de Pesquisa Avançada de Defesa) no desenvolvimento de tecnologias para combater esses conteúdos falsos desde 2016.

Ele dá aula nas escolas de informação e de ciência da computação na Universidade da Califórnia, Berkeley, após dez anos na Faculdade de Dartmouth; ambas as instituições ficam nos EUA.

À Folha, Farid explica que o desenvolvimento de tecnologias para o combate aos conteúdos falsos espalhados em massa não é o suficiente. Ela precisa ser amparada por uma maior responsabilidade assumida por plataformas como Facebook, YouTube e Twitter, bem como consumidores "mais espertos".

"Precisamos começar perceber que estamos sendo manipulados, seja pelas plataformas, por maus atores, tanto no próprio país quanto fora, e temos que ser mais críticos", afirma.

Hany Farid, professor da Universidade da Califórnia, em Berkeley, e especialista em análises de imagens falsas
Hany Farid, professor da Universidade da Califórnia, em Berkeley, e especialista em análises de imagens falsas - Divulgação

Seu livro "Fake Photos" (MIT Press, "Fotos Falsas" em tradução livre), lançado em setembro, traz dicas para qualquer pessoa identificar fotos falsas com conhecimento técnico mínimo, intermediário e avançado.

Uma dessas técnicas consiste em fazer uma chamada "busca reversa" da imagem. Nessa modalidade, a pesquisa é feita usando a foto (em vez de palavras) e a procura é por registros dela na internet. É possível fazê-la em sites como o Tineye e o Google Imagens. Com isso, é possível determinar a origem do conteúdo.

*

Como o sr. define deepfake? O melhor termo, mais técnico, é "conteúdo sintetizado por IA". O motivo de eu gostar desse termo é que é mais descritivo. Primeiro, temos que entender que imagens falsas, vídeos falsos, não são novidade. O que mudou é a automação da criação de áudios e vídeos falsos. Isso é importante porque, historicamente, existia uma meia dúzia de pessoas no mundo todo, como estúdios de Hollywood, com essa capacidade. Agora, as massas podem fazer isso. Isso muda o jogo em termos de campanhas de desinformação online.
Funciona assim: você tem dois computadores, um é o motor de síntese e o outro é um detector. O motor de síntese gera a imagem aleatoriamente combinando os pixels [pequenos pontos coloridos que formam uma imagem numa tela]. Ele mostra essa imagem para o detector e pergunta "é falsa?". O detector responde "tente de novo". Ele faz isso repetidamente até o detector dizer "está perfeito".
É isso que permite a democratização do acesso à tecnologia pela pessoa média na internet, algo que costumava ficar nas mãos apenas de estúdios de Hollywood.

A criação dessa tecnologia foi o ponto de inflexão na geração de conteúdos fake? É difícil apontar precisamente, mas eu diria que foi um dos pontos-chave.

Há uma diferença de quando vemos um deepfake divertido, tipo colocar o rosto do Nicholas Cage em situações inusitadas, ou quando tem algo como um presidente dizendo algo que nunca falou? É exatamente a mesma tecnologia. A mesma tecnologia que coloca o Donald Trump falando algo coloca o Nicholas Cage em um filme. Há muitos efeitos especiais legais em Hollywood, uso para entretenimento, sátira... Mas a mesma tecnologia pode ser transformada em arma.

Quão fácil é criar um deepfake? Porque lidar com IA não é exatamente tão simples assim pra maioria das pessoas... Dezoito meses atrás não era fácil, mas agora muitos dos códigos para fazer isso são abertos, as pessoas estão criando as ferramentas que podem ser usadas por quem não é graduado em ciência da computação.

Essa mudança em 18 meses mostra a velocidade da evolução da tecnologia. O que o sr. espera para o futuro? Acho que é muito difícil prever o futuro, mas, se continuar assim, acho que o que vai acontecer é que a sofisticação e o realismo do conteúdo falso vai continuar crescendo e vai ficar cada vez mais fácil de usar. E as ameaças vão só crescer.
Quando falamos do futuro, precisamos falar de algumas outras coisas, porque o impacto de deepfake não é só por causa da IA. Se eu tivesse a habilidade de criar deepfakes, mas não pudesse distribuir, não seria um problema muito grande. Mas é claro que eu posso, graças a Facebook, Twitter e YouTube.
E tem o fato de que a maioria das pessoas consome conteúdo numa velocidade incrível em uma sociedade muito polarizada. Todas essas peças se juntam para criar esse apocalipse de desinformação.

É mais fácil criar ou detectar um fake? Sempre vai ser mais fácil criar. Ficar no lado da defesa nesse caso é difícil. Pense em coisas como spam e vírus. Se você quer que um spam passe pela defesa é só disparar bilhões e bilhões de spam. Alguns deles vão conseguir.
O número dois é que, no lado da defesa, o campo muda muito rapidamente. Quando a gente desenvolve uma tecnologia para detectar um fake, todos [os produtores de conteúdo falso] já estão em outra.
Então o objetivo não é parar os deepfakes e a desinformação, mas que minimizemos o impacto. Tiremos da mão do adolescente na Macedônia que estava manipulando as eleições em 2016 nos EUA.

E então que devemos fazer para minimizar o impacto das deepfakes? É claro que precisamos desenvolver tecnologia para distinguir o real do falso –é fazendo isso que passo a maior parte do meu tempo.
Mas precisamos que as plataformas como Facebook, Twitter e YouTube assumam mais responsabilidade sobre como foram transformados em armas no mundo todo.
E também nós, enquanto consumidores, precisamos ficar mais espertos. Precisamos começar perceber que estamos sendo manipulados, seja pelas plataformas, por maus atores. Precisamos entender que ler uma notícia no WhatsApp ou Facebook não é o mesmo que no seu jornal ou no New York Times.
Acho que uma combinação de tecnologia, políticas, educação e mudanças de comportamento serão fundamentais. Acima de tudo isso está a pressão regulatória. Os governos precisam entrar na história e dizer "virou bagunça".

Você vê alguém conseguindo criar regulações, que esteja na direção certa? Diria que, na frente regulatória, os europeus estão no melhor lugar com a GDPR (as leis de privacidade). Eles foram bem agressivos do lado regulatório e legislativo.
No lado de políticas, as grandes empresas de tecnologia não estão em lugar nenhum.
Do lado das tecnologias, estamos melhorando. Estamos trabalhando muito, mas é uma batalha constante.
No lado humano, não sei. Parece que todos estão na mesma bagunça agora.

Esse problema de conteúdos falsos pode ser realmente resolvido? Vejo ele sendo gerenciado ou mitigado, mas não resolvido. Sempre existiu notícia falsa e sempre vai existir. Mas a escala e a velocidade disso agora ficaram incrivelmente perigosas. Como defino o "sucesso" aqui não é eliminar as fake news, mas administrá-las. Suspeito que serão anos de trabalho.
Provavelmente vai piorar antes de melhorar, porque o que percebemos aqui nos EUA com as eleições e no Reino Unido com o Brexit é que fake news e informações falsas funcionam. Francamente, após o que vimos de campanhas massivas de desinformação aqui nos EUA, fizemos pouquíssimo para melhorar a situação para 2020. Acho que ainda estamos ladeira abaixo.

O que as empresas de tecnologia deveriam ter feito para mitigar o problema de fake news? Ainda dá tempo antes das eleições? Acho que o tempo é curto. Penso que há várias coisas que precisam ser feitas. Uma é obviamente desenvolver tecnologia. A outra, talvez mais importante, é pensar em políticas coerentes para lidar com campanhas de desinformação. E eu não vi as plataformas fazerem isso. É muito difícil dividir sátira, falas protegidas, comentários políticos, de conteúdo intencionalmente enganoso focado em influenciar eleições. No entanto, o valor combinado de Facebook, Google, YouTube e Twitter está nas centenas de bilhões de dólares. Se você não consegue investir alguns recursos nisso... Francamente não tenho paciência.

Poderia falar um pouco mais dos efeitos desses conteúdos falsos no mundo real e na democracia? Me preocupo com os vídeos falsos de candidatos presidenciais, fraude, pornografia não consensual. Como você vai acreditar em qualquer coisa que você vê, lê ou ouve? Quando Donald Trump consegue, toda vez que não gosta de algo, dizer "fake news, fake news, fake news" e as pessoas acreditam nele, onde estamos como uma democracia?
Minha mulher tem esse ótimo dizer de que "antes de discutir alguma coisa, precisamos concordar em relação aos fatos". Porque a gente pode ter diferenças de opinião sobre a interpretação dos fatos, mas os fatos são os fatos. Temos que começar daí.
As pessoas confundiram a "Idade da Informação" com a "Idade do Conhecimento". Tivemos essa ideia 20 anos atrás, de que informação nos libertaria. Acontece que não é bem assim. Há uma diferença entre informação e conhecimento, e nós confundimos esses dois.

Como fazemos para transformar a "Idade da Informação" em "Idade do Conhecimento? A resposta curta é que não sei. Parte é educação. Precisamos educar a próxima geração para serem cidadãos digitais melhores, como consumir conteúdo online. Temos que encorajar, achar um jeito, de fazer com que as empresas de tecnologia façam o trabalho delas. Eu genuinamente acredito que o veneno da internet é o modelo de negócios. O modelo de negócios do Vale do Silício é que tudo é grátis, mas eu pego todos os seus dados e entrego anúncios. Primeiro, você tem problemas sérios de privacidade que ainda estamos tentando entender. Segundo é que quando você incentiva pessoas a ficarem na sua plataforma por tanto tempo quanto possível.
Eu não sei como mudar isso porque a verdade é que é incrivelmente lucrativo. E as pessoas, por 20 anos, estavam felizes em não pagar nada e só agora estão acordando. Minha esperança é que o mercado vai consertar isso. Que algum empreendedor vai chegar e dizer "conseguimos fazer algo melhor".

Hany Farid, professor da Universidade da Califórnia, em Berkeley, e especialista em análises de imagens falsas
Hany Farid, professor da Universidade da Califórnia, em Berkeley, e especialista em análises de imagens falsas - Divulgação

O sr. tem trabalhado com a DARPA [agência americana para pesquisar tecnologias de Defesa] para desenvolver ferramentas para lutar contra deepfakes antes mesmo de eles se popularizarem... É, nós começamos com isso bem cedo, em 2015. Logo que vimos a primeira tecnologia para automatizar a criação de falsificações pudemos ver no que ia dar. Vimos os deepfakes aparecerem aproximadamente um ano e meio atrás e começamos a trabalhar agressivamente neles também.

Que tipo de tecnologia têm e quão longe estão de colocar em prática? Em termos de colocar em prática na escala da internet, você tem que entender que isso é muito difícil. Só no Facebook tem um bilhão de novos conteúdos por dia, no YouTube são 500 horas de vídeo adicionadas a cada minuto. Operar nessa escala é difícil e não estamos nem perto de fazer isso. A estratégia é lançar nossas ferramentas e colocá-las nas mãos de pessoas como você, jornalistas. E permitir que elas tenham uma ferramenta a mais no arsenal para determinar se histórias são válidas ou não.

Se criar um conteúdo falso é bem mais rápido do que detectar um conteúdo falso, como a tecnologia pode ajudar nisso? A esperança é que quando um vídeo chegar à imprensa e ela quiser determinar se ele é real ou não, ela possa usar algumas das ferramentas que nós e outros estamos desenvolvendo. Aí, basicamente, classificar os vídeos como falsos ou não.
Isso é apenas metade da aposta, conforme sabemos. Porque aí você precisa que as pessoas realmente acreditem na mídia, e que as redes sociais parem de distribuir o conteúdo [falso]. Mas é, na nossa opinião o primeiro passo.