Meta identificará imagens geradas por IA em suas redes sociais

Meta identificará imagens geradas por IA em suas redes sociais

Ferramenta que fará função ainda está em processo de elaboração pela empresa

AFP

Meta identificará imagens geradas por IA em suas redes sociais

publicidade

A gigante americana Meta anunciou, nesta terça-feira (6), que identificará "nos próximos meses" qualquer imagem gerada por Inteligência Artificial (IA) que apareça em suas redes sociais Facebook, Instagram e Threads.

"Nos próximos meses, rotularemos as imagens que os usuários publicarem no Facebook, Instagram e Threads sempre que pudermos detectar indicadores, conforme as normas da indústria, que revelem se são geradas por IA", anunciou o responsável por assuntos internacionais da Meta, Nick Clegg, em um blog.

A empresa já identifica imagens feitas por robôs com a ajuda de sua própria ferramenta, Meta IA, lançada em dezembro.

Daqui para frente, "queremos poder fazer o mesmo com conteúdos criados com ferramentas de outras empresas" como Google, OpenAI, Microsoft, Adobe, Midjourney ou Shutterstock, acrescentou o responsável da Meta.

"Estamos construindo essa ferramenta no momento e começaremos a aplicar, nos próximos meses, etiquetas em todos os idiomas compatíveis com cada aplicativo", destacou.

O aumento da IA generativa faz crescer a preocupação de que as pessoas usem essas ferramentas para semear o caos político, especialmente por meio da desinformação. Quase metade da população mundial irá às urnas em 2024.

Além do risco político, o desenvolvimento de programas de IA generativa pode resultar em um fluxo incontrolável de conteúdos degradantes, segundo muitos ativistas e reguladores.

Como exemplo estão as "deepfakes" pornográficas de mulheres famosas, um fenômeno que também afeta muitas pessoas anônimas.

Minimizar

Antes de sua remoção, a "deepfake" da estrela americana Taylor Swift foi vista 47 milhões de vezes na rede social X (ex-Twitter), no final de janeiro. Segundo a imprensa americana, a publicação permaneceu online na plataforma por cerca de 17 horas. Embora Nick Clegg tenha afirmado que a ferramenta "não eliminará" totalmente o risco de produção de imagens falsas, "certamente minimizará" sua proliferação "dentro dos limites do que a tecnologia permite atualmente".

"Não é perfeito, não vai cobrir tudo, a tecnologia não está totalmente pronta. Mas, até agora, é a tentativa mais avançada a fornecer transparência significativa à bilhões de pessoas em todo o mundo", garantiu Clegg à AFP. "Eu espero profundamente que, fazendo isso, tomando esse caminho, iremos incentivar o restante da indústria (...) a trabalhar junto e realmente tentar desenvolver os padrões comuns que precisamos", defendeu o líder da Meta, afirmando estar disposto a "compartilhar" sua tecnologia aberta "da forma mais ampla possível".

Em meados de janeiro, a empresa californiana OpenAI, criadora do ChatGPT, também anunciou o lançamento de ferramentas para combater a desinformação e salientou seu desejo de não permitir o uso de suas tecnologias para fins políticos. "Queremos garantir que nossa tecnologia não seja usada de maneira que prejudique" o processo democrático, explicou a OpenAI, destacando que seu gerador de imagens DALL-E 3 contém "ressalvas" para evitar que os usuários gerem imagens de pessoas reais, especialmente candidatos.

Veja Também


Mais Lidas

Correio do Povo
DESDE 1º DE OUTUBRO 1895