Capítulo 1
Os limites da IA

Superinteligência artificial pode levar ao fim da humanidade? Entenda riscos

Segundo especialistas, o apocalipse ocasionado pela IA pode não ser como no cinema

Raphael Hernandes

Ao pensar numa eventual ascensão das máquinas, uma imagem que vem à cabeça é a de um bando de robôs humanoides destruindo as pessoas. E aí é "hasta la vista, baby".

Contudo, o fim da humanidade motivado por uma expansão das capacidades de IA (inteligência artificial) não deve ser bem assim.

Pesquisadores do Instituto do Futuro da Humanidade, ligado à Universidade de Oxford, mapeiam os chamados riscos existenciais. A lista de potenciais causadores do apocalipse, além da IA, inclui desastres naturais, nanotecnologia e biotecnologia.

Segundo Nick Bostrom, professor de Oxford e diretor-fundador do instituto, parte do risco gerado pela inteligência artificial vem de sua utilização no desenvolvimento de outras coisas potencialmente danosas.

"Da mesma forma como muitas outras tecnologias poderosas são usadas de formas prejudiciais, a IA poderia também se tornar uma ferramenta para guerra e opressão", diz Bostrom. Uma das preocupações é o uso da tecnologia para a construção de armamentos.

Os pesquisadores Stephen Cave e Kanta Dihal, da Universidade de Cambridge, rastreiam a história das armas autônomas. O estudo considera até uma obra de ficção escrita na Grécia Antiga. No texto "Argonautica", datado do século 3 a.C., um gigante feito de bronze funcionava sozinho para defender a Europa de invasores.

"Recentemente, há esforços grandes para transformar esses mitos em realidade, com financiamento militar para projetos de inteligência artificial", escrevem Cave e Dihal no artigo "Hopes and fears for intelligent machines in fiction and reality" ("Esperanças e medos para máquinas inteligentes na ficção e na realidade").

Em documento da União Europeia que traz recomendações para se trabalhar com IA, armas autônomas são definidas como máquinas capazes de decidir "quem, quando e onde lutar".

A IA pode ser usada para automatizar a detecção de alvos de drones, por exemplo. Mas até que ponto um robô pode decidir, sozinho, que é a hora de puxar um gatilho? Cada país pode ter uma opinião diferente.

Brad Smith, presidente da Microsoft, escreve em seu livro "Tools and Weapons" ("Armas e Ferramentas") que líderes militares de todo o mundo concordam em uma coisa, pelo menos: "Ninguém quer acordar numa manhã e descobrir que máquinas começaram uma guerra enquanto eles dormiam."

Já a inteligência artificial que causa medo em filmes como "O Exterminador do Futuro", "Matrix" e "Eu, Robô" existe apenas na ficção. É a chamada IA geral, capaz de avaliar uma ampla série de tópicos.

Alguns especialistas dizem que nunca vai existir, outros que aparecerá nas próximas décadas. No mínimo, é algo que está longe de emergir.

"Quando se pensa em IA, as pessoas têm muitas esperanças, medos, expectativas, que não refletem o atual estado da tecnologia", afirma a pesquisadora holandesa Kanta Dihal, da Universidade de Cambridge.

A tecnologia que existe hoje é a IA estreita, capaz de operações altamente específicas. Um exemplo prático é o mecanismo capaz de detectar imagens de gatos.

A partir de bases de dados com várias fotos e desenhos, é possível fazer o sistema assimilar padrões e, com isso, avaliar se outras imagens são ou não de bichanos. Esse mesmo robô não seria capaz de identificar cães ou de jogar xadrez –precisaria ser preparado especificamente para isso.

A parte central da teoria de Bostrom para o fim da humanidade por meio de inteligência artificial gira em torno do que ele chama de superinteligência. Seria, teoricamente, a última tecnologia que a humanidade precisaria criar.

"Ela faria as atividades de invenção de forma muito mais eficiente do que humanos", diz o professor.

O mecanismo seria capaz de criar outras máquinas ou sistemas, e isso inclui fazer melhorias em si próprio. A partir de um momento, com a escalada na capacidade, a inteligência dessa máquina seria tão grande que um ser humano não conseguiria entender. Se isso saísse do controle...

O pensamento de Bostrom é criticado por alguns colegas, que dizem que esse tipo de discussão tira o foco de problemas mais palpáveis. O próprio filósofo reconhece que é difícil estabelecer um intervalo de tempo para que a tecnologia chegue a um nível tão elevado.

"Algumas pessoas estão convencidas de que a superinteligência aparecerá em 10 a 15 anos, outros estão igualmente convictos em dizer que nunca acontecerá ou que demorará centenas de anos", afirma Bostrom, que argumenta ser importante estar preparado para isso.

A parábola dos humanos que viram clipes de papel

Para ilustrar o fenômeno sobre o qual a superinteligência deveria causar preocupação, Bostrom criou a parábola do maximizador de clipes de papel.

Na história, a humanidade criou um sistema de IA cujo objetivo é produzir tantos clipes quanto conseguir. Ele precisa de mais e mais água e metal para manter a fabricação, e então ele pode entender que as pessoas são feitas de átomos -que poderiam ser usados para fazer clipes.

Até chegar um ponto em que tudo, Terra e pessoas, virem clipes de papel (feitos da forma mais eficiente possível).

Para Bostrom, a questão é que o sistema não foi concebido para fazer mal ao ser humano. "Você não precisa programar o instinto de sobrevivência ou o desejo por poder e riqueza para que a IA procure por essas coisas, pois elas já seriam meios para o objetivo final de obter mais clipes de papel", explica.

Para a catástrofe acontecer, seria necessário uma inteligência artificial muito poderosa e orientada a um objetivo específico. Por isso, argumenta Bostrom, ao se programar um sistema com esse potencial seria importante colocá-lo para fazer algo que realmente importa aos humanos, de forma mais ampla.