ONU pede moratória sobre sobre sistemas de inteligência artificial que ameaçam direitos humanos

ONU pede moratória sobre sobre sistemas de inteligência artificial que ameaçam direitos humanos

Bachelet pediu uma avaliação dos riscos que as tecnologias de IA representam para a vida privada ou a liberdade de expressão

AFP

publicidade

A ONU pediu nesta quarta-feira a imposição de uma moratória sobre a venda e uso de alguns sistemas de inteligência artificial (IA), como o reconhecimento facial, até que sejam ativadas garantias para proteger os direitos humanos. "A inteligência artificial pode ser uma força para o bem, que ajude as sociedades a superar alguns dos maiores desafios de nosso tempo. Mas as tecnologias de IA também podem ter efeitos nocivos e inclusive catastróficos, quando são utilizadas sem prestar a devida atenção a sua capacidade de violar os direitos humanos", declarou a alta comissária da ONU para os Direitos Humanos, Michelle Bachelet, em um comunicado.

Bachelet pediu uma avaliação dos riscos que representam para a vida privada ou a liberdade de expressão os diferentes sistemas que se apoiam na inteligência artificial. "Como a avaliação dos perigos e como superá-los pode levar algum tempo ainda, os Estados deveriam implementar a partir de agora moratórias sobre o uso das tecnologias que apresentam alto potencial de risco", completou.

Bachelet citou como exemplo as tecnologias que permitem decisões automáticas ou aquelas que estabelecem perfis.

"Prejudicar as pessoas"

Os sistemas de IA são usados para "decidir quem recebe serviços públicos, quem tem oportunidade de obter um emprego e, certamente, afetam as informações que as pessoas veem e que podem compartilhar na internet", destacou a alta comissária. Um estudo solicitado pelo Conselho de Direitos Humanos - maior instância da ONU na área -, examinou as formas como estas tecnologias têm sido frequentemente aplicadas sem uma avaliação correta de seu funcionamento ou impacto.

A inteligência artificial fez com que muitas pessoas fossem tratadas injustamente, "seja porque foram negados benefícios da Previdência Social devido à aplicação de instrumentos deficientes de IA ou porque foram presas em consequência de erros nos sistemas de reconhecimento facial", afirma o comunicado. "O risco de discriminação inerente às decisões baseadas na IA - decisões capazes de mudar, definir ou prejudicar as pessoas - é muito real", acrescentou Bachelet.

O relatório descreve de maneira detalhada como os sistemas de IA dependem de grandes bancos de dados com informações pessoais "compiladas, trocadas, combinadas e analisadas com métodos diversos às vezes opacos". "Os dados que alimentam e orientam os sistemas de IA podem ser deficientes, discriminatórios, obsoletos ou pouco pertinentes. O armazenamento de dados a longo prazo também provoca riscos particulares", adverte.

Uso frequente

O informe destaca em particular o uso cada vez mais frequente dos sistemas baseados na IA por parte das forças de segurança. O reconhecimento facial é usado para identificar determinadas pessoas à distância e em tempo real, o que pode permitir um acompanhamento ilimitado dos indivíduos.

"Não podemos seguir reagindo de maneira tardia aos efeitos da IA, nem permitir que se use de maneira ilimitada, sem fronteiras nem supervisão, para enfrentarmos depois suas quase inevitáveis consequências sobre os direitos humanos", insistiu Bachelet, antes de reconhecer que "a capacidade da IA para servir a população é inegável".

"Mas também é inegável sua capacidade de contribuir para violações de direitos humanos em grande escala, de maneira que quase não pode ser detectada. É necessário adotar de maneira urgente medidas para impor limites baseados nos direitos humanos ao uso de IA para o bem de todos", concluiu.


Mais Lidas

Correio do Povo
DESDE 1º DE OUTUBRO 1895