Google se compromete a não usar inteligência artificial para armas

Foto: Elijah Nouvelage / AFP / CP

O Google anunciou nesta quinta-feira que não vai desenvolver inteligência artificial para armas ou para “causar ou facilitar diretamente lesões em pessoas”, ao apresentar um conjunto de princípios para o uso desta tecnologia. Em uma postagem em um blog, o diretor (CEO) da gigante da internet, Sundar Pichai, descreveu as políticas de inteligência artificial (AI) da empresa, observando que, embora a Google não vá usar AI para armas, “continuaremos o nosso trabalho com governos e militares em muitas outras áreas”, incluindo segurança cibernética, treinamento, e busca e salvamento.

O anúncio ocorre em um momento em que a Google sofre pressão de funcionários e outros por conta de um contrato com as forças armadas americanas, o qual a gigante de tecnologia, sediada na Califórnia, informou na semana passada que não seria renovado. “Vamos continuar nosso trabalho com o governo e as forças armadas em muitas outras áreas”, escreveu Pichai, em meio a pressões por um contrato com o setor militar que a gigante da tecnologia disse na semana passada que não será renovado.

Pichai definiu sete princípios para a aplicação da inteligência artificial pela Google, ou a computação avançada que pode simular um comportamento humano inteligente. Ele disse que a Google está usando a AI “para ajudar as pessoas a lidar com problemas urgentes”, como previsão de incêndios florestais, ajuda aos agricultores, diagnóstico de doenças, ou prevenção da cegueira. “Reconhecemos que essa tecnologia poderosa levanta questões igualmente poderosas sobre seu uso”, destacou Pichai no blog. “Como a inteligência artificial é desenvolvida e usada terá um impacto significativo na sociedade por muitos anos. Como líderes em AI, sentimos uma profunda responsabilidade de fazer isso corretamente”, acrescentou.

O CEO disse que os programas de inteligência artificial da Google seriam projetados para aplicativos que fossem “socialmente benéficos” e “evitassem criar ou reforçar tendências injustas”. Afirmou que os princípios também exigem que os aplicativos de inteligência artificial sejam “construídos e testados para segurança”, que sejam “responsáveis para as pessoas” e “incorporem princípios de design de privacidade”.

A Google evitará o uso de qualquer tecnologia “que cause, ou possa causar, danos gerais”, escreveu Pichai. Isso significa evitar “armas ou outras tecnologias cuja finalidade ou implementação principal seja causar ou facilitar diretamente danos às pessoas” e sistemas “que coletem ou usem informações para vigilância que violem normas internacionalmente aceitas”.

A medida é adotada em meio a preocupações crescentes de que sistemas automatizados ou robóticos possam ser mal utilizados e ficar fora de controle, levando ao caos. Várias empresas de tecnologia já concordaram com os princípios gerais de usar a inteligência artificial para o bem, mas a Google parece oferecer um conjunto mais preciso de padrões.

A empresa, que já é membro da Parceria em Inteligência Artificial, que inclui companhias de tecnologia comprometidas com os princípios da AI, enfrentou críticas pelo contrato com o Pentágono no Projeto Maven, que usa conhecimentos de máquina e engenharia para distinguir pessoas e objetos em vídeos feitos por drones. Diante de uma petição assinada por milhares de funcionários e por conta de críticas de fora da empresa, a Google indicou que o contrato de 10 milhões de dólares não seria renovado, de acordo com relatos da imprensa.

 

Fonte: AFP

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *