Jornal com Tecnologia

Especialistas e famosos pedem fim do desenvolvimento da superinteligência artificial

Sam Altman estimou em setembro que o limiar da superinteligência poderia ser alcançado em até cinco anos

Sam Altman estimou em setembro que o limiar da superinteligência poderia ser alcançado em até cinco anos
Sam Altman estimou em setembro que o limiar da superinteligência poderia ser alcançado em até cinco anos Foto : JOEL SAGET / AFP

Mais de 700 cientistas, políticos e celebridades, incluindo o Príncipe Harry e sua esposa Meghan Markle, assinaram nesta quarta-feira (22) um apelo global pedindo a suspensão do desenvolvimento de uma Inteligência Artificial (IA) que possa superar as capacidades intelectuais humanas, conhecida como superinteligência.

A iniciativa foi lançada pelo Future of Life Institute, uma organização sem fins lucrativos dos EUA que alerta sobre os riscos da IA, e exige um consenso científico e o apoio popular antes de avançar nesta área.

"Fazemos um apelo para que se detenha o desenvolvimento de uma superinteligência até que haja consenso científico para construí-la de forma controlada e segura e enquanto não houver o apoio da população", indica a página da organização.

Criadores da IA moderna

Entre os signatários do manifesto estão alguns dos principais criadores da IA moderna, como Geoffrey Hinton (Nobel de Física em 2024), Stuart Russell e Yoshua Bengio. A lista também reúne figuras proeminentes da tecnologia e política, incluindo Richard Branson (fundador da Virgin) e Steve Wozniak (cofundador da Apple), além de figuras políticas como Steve Bannon e Susan Rice.

Lideranças religiosas, como o principal especialista em IA do Vaticano e assessor do Papa, Paolo Benanti, e celebridades como o cantor will.i.am, também apoiam o apelo.

Alerta contra o risco iminente

A maioria das grandes empresas de IA busca desenvolver a Inteligência Artificial Geral (IAG), que igualaria as capacidades humanas, e, posteriormente, a superinteligência. Sam Altman, diretor-geral da OpenAI (criadora do ChatGPT), estimou em setembro que o limiar da superinteligência poderia ser alcançado em até cinco anos.

Max Tegmark, presidente do Future of Life Institute, criticou a velocidade do desenvolvimento: "Tanto faz que seja dentro de dois ou quinze anos, construir algo assim é inaceitável". Para ele, as empresas não deveriam trabalhar neste tipo de projeto "sem nenhum marco regulatório". Tegmark concluiu que "É possível ser favorável à criação de ferramentas de inteligência artificial mais potentes, por exemplo, para curar o câncer e, ao mesmo tempo, ser contra a superinteligência".