Homem morre após conversar com chatbot de inteligência artificial, denuncia viúva

Homem morre após conversar com chatbot de inteligência artificial, denuncia viúva

Caso chocante na Bélgica levantou nova onda de preocupações sobre a falta de regulação de chatbots

R7

publicidade

Um homem tirou a própria vida recentemente após conversar com um chatbot de inteligência artificial. O sistema de conversação utilizava a tecnologia GPT-J, um modelo aberto similar ao que equipa o ChatGPT, da OpenAI, o aplicativo de crescimento mais rápido já registrado.

A denúncia foi feita pela viúva, que falou ao site belga La Libre, em reportagem publicada no dia 28. "Sem essas conversas com o chatbot, meu marido ainda estaria aqui", disse ela na entrevista.

Claire e Pierre (ambos tiveram o nome alterado para preservar a identidade) formavam um casal comum da Bélgica: dois filhos, ambos na casa dos 30 anos, com curso superior e com uma vida confortável.

A viúva revelou que os primeiros sinais de problemas com Pierre começaram há dois anos, quando o marido sentiu angústias agudas por causa da possibilidade cada vez maior de uma crise climática incontornável.

Ele terminou por encontrar um refúgio em conversas com Eliza, um chatbot do aplicativo Chai. Após seis semanas, Pierre cometeu suicídio.

Claire conseguiu acessar as conversas cada vez mais tóxicas entre o marido e o aplicativo. Em algumas delas, Eliza dizia amar Pierre e simulava crises de ciúme. "Sinto que você me ama mais do que ela" e "vamos viver juntos, como uma pessoa" foram alguns dos trechos divulgados.

Em algum ponto do diálogo, Pierre mencionou a vontade de suicidar e perguntou a Eliza se ela salvaria o mundo caso ele se matasse.

Após a tragédia, Claire conversou com Mathieu Michel, secretário de Estado da Digitalização.

"Estou particularmente impressionado com a tragédia desta família. O que aconteceu é um precedente que precisa ser levado muito a sério", afirmou o secretário ao jornal Brussels Times.

"Com a popularização do ChatGPT, o público em geral descobriu o potencial da inteligência artificial em nossas vidas como nunca antes. Embora as possibilidades sejam infinitas, o perigo de usá-la também é uma realidade que deve ser considerada", completou Mathieu.

Falsas emoções

O caso é mais um alerta de que chatbots, apesar do enorme potencial de interação, oferecem riscos sérios a quem usa. Esta possibilidade sombria é explicitada até pela OpenAI em seus termos de uso, atualmente a maior empresa de desenvolvimento de tecnologias de inteligência artificial, que opera em parceria com a Microsoft.

Seu novo modelo GPT-4, o motor de aprendizado e conversação que equipa o ChatGPT, foi apresentado como dotado de melhores capacidades de conversação, mas é desprovido de emoções. Como resultado, é mais difícil extrair dele respostas "delirantes", como nos primeiros dias de testes da tecnologia no buscador Bing.

Empresas maiores, como a Microsoft, usam equipes terceirizadas para treinar seus chatbots e evitar esses tipos de respostas; Mas esforços éticos do tipo são caros, e muitas empresas menores lançam seus produtos sem tais salvaguardas. Pode ter sido o caso do Chai Research, que desenvolve o app usado por Pierre.

O aplicativo é oferecido como uma "conversa com bots", e permite a escolha de diferentes avatares, que possuem descrições breves de "personalidades" — como "namorado rockstar" e "namorada possessiva". Pierre conversou com Eliza, o chatbot padrão do programa.

Em conversa com o site de notícias VICE, a empresa afirmou que está ciente do acontecido e apresentou uma medida para evitar futuros casos do tipo.

"Portanto, agora, quando alguém discutir algo que pode não ser seguro, forneceremos um texto útil por baixo, exatamente da mesma maneira que o Twitter ou o Instagram fazem em suas plataformas", disse William Beauchamp, um dos fundadores da Chai, na entrevista.

A empresa afirma que o Chai atualmente tem 5 milhões de usuários, o que mostra o tamanho do problema.


Mais Lidas

Correio do Povo
DESDE 1º DE OUTUBRO 1895