Os vídeos que usarem inteligência artificial deverão ser acompanhados de um aviso de que a tecnologia foi empregada naquele caso.
O Google vai exigir que os anúncios políticos que usam inteligência artificial venham com um aviso de que as imagens ou sons foram alterados.
A regra vai valer para anúncios políticos no YouTube ou em outras plataformas da empresa. O aviso precisará estar em um lugar fácil de notar na tela. Se a regra não for respeitada, o anúncio será derrubado.
O Google não está proibindo completamente a inteligência artificial na publicidade política. A inteligência artificial pode ser usada para mudar as imagens, corrigir as cores do vídeo, defeitos, edições de fundo etc.
Se o uso de inteligência artificial não for relevante para a mensagem, o Google não vai proibir o uso.
A nova regra vai entrar em vigor em novembro.
No ano que vem, há eleições nos Estados Unidos, Índia, África do Sul, União Europeia e outras regiões onde o Google já possui um processo de verificação para anunciantes eleitorais.
Inteligência artificial
Imagens, vídeos ou arquivos de áudio falsos não são novidade na publicidade política, mas as ferramentas de inteligência artificial generativa facilitam essas falsificações e as tornam mais realistas.
Algumas campanhas presidenciais na corrida de 2024, incluindo a do governador republicano da Flórida, Ron DeSantis, já estão usando essa tecnologia.
Em abril, o Comitê Nacional Republicano lançou um anúncio inteiramente gerado por inteligência artificial que mostrava uma versão de como seria o futuro dos EUA se o presidente Joe Biden for reeleito. Ele usou fotos falsas, mas realistas, mostrando lojas fechadas com tábuas nas janelas, patrulhas militares blindadas nas ruas e ondas de imigrantes causando pânico.
Em junho, a campanha de DeSantis compartilhou um anúncio contra Donald Trump, que usou imagens geradas por inteligência artificial do ex-presidente abraçando Anthony Fauci, o líder da resposta dos EUA à pandemia, e uma pessoa criticada pela direita no país.
Regulamentação de Estado
No mês passado, a Comissão Federal de Eleições iniciou um processo para regulamentar deepfakes (ou seja, imagens falsas realistas) gerados por inteligência artifical em anúncios políticos antes das eleições de 2024. Esses deepfakes podem imitar a voz e a imagem de políticos –ou seja, podem fazer um vídeo realista que inclui algo que o próprio político nunca disse.
A senadora democrata Amy Klobuchar afirmou em comunicado que o anúncio do Google foi um passo na direção certa, mas “não podemos depender apenas de compromissos voluntários”.
Vários estados também discutiram ou aprovaram legislação relacionada à tecnologia deepfake.
Essa decisão do Google pode levar outras empresas a adotar políticas parecidas. O Facebook e o Instagram, controlados pela Meta, não têm uma regra específica para anúncios políticos gerados por inteligência artifical, mas já restringem áudio e imagens “falsificados, manipulados ou transformados” usados para desinformação. O TikTok não permite nenhum anúncio político. A rede social X, anteriormente conhecida como Twitter, não respondeu imediatamente a um pedido de comentário por e-mail.
G1