Conteúdos gerados por Inteligência Artificial poderão ser identificados por Google, Meta e OpenAI

Uma das medidas pode ser a inserção de marcas d’água em textos, imagens, áudios e vídeos.

As principais empresas de Inteligência Artificial (IA), como a OpenAI, Google e Meta, assumiram compromissos com a Casa Branca para implementar medidas que identifiquem o conteúdo gerado por IA, informou o governo dos Estados Unidos, na sexta-feira (21).

As medidas podem incluir, por exemplo, a inserção de marcas d’água em textos, imagens, áudios e vídeos gerado por IA.

As empresas – que também incluem a Anthropic, Inflection e Amazon – se comprometeram a testar os sistemas antes de lançá-los e compartilhar informações sobre como reduzir riscos e investir em segurança cibernética.

A medida é vista como uma vitória do governo do presidente americano, Joe Biden, para regulamentar tecnologias de inteligência artificial, que experimentou recentemente um boom de investimentos das empresas.

Regulação nos EUA

Desde que a IA se popularizou no mundo, especialmente após o surgimento do ChatGPT, legisladores de todo o mundo começaram a considerar como mitigar os perigos da tecnologia para a segurança nacional e a economia.

O líder do Senado nos EUA, Chuck Schumer, pediu em junho uma “legislação abrangente” para avançar e garantir salvaguardas para a inteligência artificial.

O Congresso está considerando um projeto de lei para exigir que anúncios políticos revelem se a IA foi usada para criar imagens ou outro conteúdo.

O presidente Joe Biden também está trabalhando no desenvolvimento de uma ordem executiva e legislação bipartidária sobre tecnologia de IA.

Sistema para ‘marca d’água’

Como parte do esforço, as empresas se comprometeram a desenvolver um sistema de “marca d’água” que deve ser usado em diferentes formas de conteúdo, desde texto, imagens, áudios e até vídeos gerados por IA, para que os usuários saibam quando a tecnologia foi usada.

Essa marca d’água, provavelmente, tornará mais fácil para os usuários identificar imagens ou áudios deep-fake que podem, por exemplo, mostrar um ato de violência que não ocorreu, criar um golpe ou distorcer uma foto de um político.

Não está claro como a marca d’água ficará evidente no compartilhamento das informações.

As empresas também se comprometeram a se concentrar em proteger a privacidade dos usuários à medida que a IA se desenvolve e em garantir que a tecnologia não seja usada para discriminar grupos vulneráveis.

Outros compromissos incluem o desenvolvimento de soluções de IA para problemas científicos, como pesquisa médica e mitigação das mudanças climáticas.

Fonte: Portal G1 / Foto: Reuters

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *