Tudo sobre Google
Tudo sobre Inteligência Artificial
Tudo sobre OpenAI
Tudo sobre Tecnologia
Um grupo de gigantes da inteligência artificial (IA) está prestes a assinar um “acordo” comprometendo-se a desenvolver tecnologia para detectar, identificar e controlar imagens, vídeos e gravações de áudio geradas por IA que buscam enganar eleitores antes das eleições cruciais em vários países neste ano.
O que você precisa saber:
- O acordo, liderado por empresas como Google, Microsoft e Meta, juntamente com OpenAI, Adobe e TikTok, foi obtido pelo The Washington Post.
- No entanto, a versão final do documento não inclui uma proibição direta do conteúdo eleitoral enganoso gerado por IA, deixando uma lacuna significativa.
- Em vez disso, o acordo funciona mais como um manifesto reconhecendo os riscos apresentados pelo conteúdo gerado por IA para a integridade das eleições.
- Propõe-se a tomar medidas para mitigar esses riscos, como rotular conteúdo suspeito de IA e educar o público sobre os perigos associados à disseminação de deepfakes.
Leia mais:
A geração e distribuição deliberadas e não divulgadas de conteúdo eleitoral enganoso baseado em IA podem manipular o público de formas que ameaçam a integridade dos processos eleitorais.
Trecho do documento via WP
O problema das deepfakes de IA no contexto eleitoral
Embora deepfakes tenham existido há alguns anos, sua qualidade tem melhorado rapidamente, tornando-se cada vez mais difícil distinguir entre conteúdo falso e real. A acessibilidade das ferramentas necessárias para criá-los também aumentou, ampliando o potencial para sua produção em grande escala.
Exemplos recentes de deepfakes em campanhas eleitorais incluem um anúncio em apoio ao ex-candidato presidencial Ron DeSantis, que usou IA para imitar a voz do ex-presidente Donald Trump, e o uso de IA pelo candidato presidencial paquistanês Imran Khan para criar discursos enquanto estava na prisão. Além disso, recentemente uma ligação automática, alegando ser do presidente Biden, incentivou as pessoas a não votarem nas primárias de New Hampshire, utilizando uma versão gerada por IA da voz de Biden.
As empresas de tecnologia têm enfrentado pressões crescentes de reguladores, pesquisadores de IA e ativistas políticos para conter a disseminação desse tipo de conteúdo falso. O acordo atual se assemelha a um compromisso voluntário anterior, assinado após uma reunião na Casa Branca, no qual as empresas se comprometeram a tentar identificar e rotular conteúdo falso de IA em seus sites.
Apesar dos esforços das empresas de tecnologia em criar políticas para lidar com o conteúdo político gerado por IA — como a exigência do TikTok de não permitir conteúdo falso de figuras públicas em endossos políticos, e a exigência do Meta de que os anunciantes políticos declarem o uso de IA em anúncios em suas plataformas —, ainda há muito a ser feito para estabelecer um sistema amplo e eficaz de identificação e rotulagem de deepfakes em todas as redes sociais.
Fonte original: OlharDigital