Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano?
Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana.
Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
Reportagem do jornal "South China Morning Post" mostra que tentativas de adoção desse sistema em escolas e universidades causam preocupação com privacidade. Além do reconhecimento facial, o equipamento monitora a atenção dos alunos durante as aulas.
Usar uma tecnologia em uma fase inicial de desenvolvimento pode resultar em outros problemas. Uma estudante relatou ao jornal chinês que não é reconhecida pelo sistema inteligente quando troca de óculos e que a verificação facial causa filas longas para entrar nos dormitórios.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento.
A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido.
A regulação vem a reboque dos avanços: regras para trabalhar com clonagem, por exemplo, surgiram só depois da divulgação do experimento com a ovelha Dolly, em 1997.
Lygia da Veiga Pereira, chefe do departamento de Genética e Biologia Evolutiva da USP (Universidade de São Paulo), explica que comitês especializados avaliam e podem barrar projetos, tanto os da academia quanto os de empresas privadas.
Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência, avalia Pereira, é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado –uma moratória– para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site "Politico", em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.