O Globo, n. 32804, 31/05/2023. Economia, p. 21

IA traz risco de extin­ção, dizem espe­ci­a­lis­tas



Especialistas e executivos indústria tecnológica lançaram ontem um novo alerta contra a inteligência artificial (IA). Em um sucinto comunicado, eles afirmam que a tecnologia que estão criando pode, um dia, representar uma ameaça existencial à Humanidade e deve ser considerada um risco semelhante a pandemias e guerras nucleares.

“Mitigar o risco de extinção causada pela IA deve ser uma prioridade global junto a outros riscos de larga escala à sociedade, como pandemias e uma guerra nuclear”, afirma o comunicado, que contém esta única frase, divulgado pelo Center for AI Safety, organização não lucrativa que pesquisa efeitos da tecnologia.

Do privado ao público

A carta aberta foi assinada por mais de 350 executivos, pesquisadores e engenheiros que trabalham com IA.

Entre os signatários estão os principais executivos de empresas na linha de frente da IA: Sam Altman, CEO da OpenAI, a criadora do ChatGPT; Demis Hassabis, CEO do Google DeepMind; e Dario Amodei, CEO da Anthropic.

Geoffrey Hinton e Yoshua Bengio, dois dos três pesquisadores que, por seu trabalho em redes neurais, são considerados “padrinhos” da IA, também assinaram o manifesto.

Hinton, que era diretor de IA no Google, deixou a empresa no início deste mês para, segundo ele, poder falar livremente sobre os males potenciais da tecnologia.

O comunicado vem em um momento de crescente preocupação com os potenciais danos da IA. Recentes avanços nos chamados modelos de linguagem ampla (LLMs, na sigla em inglês) — o tipo de sistema usado pelo ChatGPT e outros chatbots —geraram temor de que a IA possa ser usada para disseminar desinformação e discurso de ódio, ou que elimine milhões de empregos.

Em algum momento, acreditam, a IA poderia tornar-se poderosa o bastante para criar disrupções de larga escala se nada for feito para desacelerá-la. Os pesquisadores, no entanto, não dizem como isso ocorreria.

Esses temores são compartilhados por diversas lideranças da indústria, o que os coloca na estranha posição de argumentar que uma tecnologia que eles estão construindo traz graves riscos e deveria sofrer uma regulação mais rígida.

Dan Hendrycks, diretor executivo do Center for AI Safety, disse que o comunicado foi uma “saída do armário” para algumas das lideranças do setor, que não expressavam em público sua preocupação com os riscos da IA.

—Há uma concepção errônea, mesmo na comunidade de IA, de que são poucos os profetas do apocalipse —disse Hendrycks. —Mas a verdade é que muitas pessoas só expressavam suas preocupações em privado.

Alguns céticos argumentam que a tecnologia de IA ainda não está madura o suficiente para representar tal risco. Eles se preocupam mais com problemas de curto prazo, como respostas incorretas ou enviesadas.

Outros, porém, ressaltam que a IA está melhorando em tal velocidade que seu desempenho já ultrapassou o humano em algumas áreas e que, em breve, o fará em outras. Eles dizem que a tecnologia mostrou sinais de capacidades e compreensão avançadas, daí o temor de que uma “inteligência artificial geral”, capaz de superar os humanos em vários campos, não esteja distante.

Órgão regulador global

Dois outros manifestos sobre os riscos da IA já foram divulgados este ano. O primeiro foi em março: um artigo no New York Times, assinado por Yuval Noah Harari, Tristan Harris e Aza Raskin. Logo depois, mais de mil pesquisadores, especialistas e executivos do setor, incluindo Elon Musk, publicaram uma carta aberta pedindo uma pausa de seis meses no desenvolvimento de ferramentas de IA.

Altman, da OpenAI, já propôs um órgão regulador nos moldes da Agência Internacional de Energia Atômica.

A IA será ainda o tema, hoje, de reunião de autoridades de EUA e União Europeia.