Empresas de tecnologia firmam acordo para detecção e combate a fake news geradas por IA nas eleições

O conteúdo digital abordado pelo acordo entre 20 big techs consiste em áudio, vídeo e imagens gerados por IA que falsificam ou alteram enganosamente a aparência, voz ou ações de candidatos

Durante a Conferência de Segurança de Munique, realizada nesta sexta-feira (16) na Alemanha, 20 empresas líderes de tecnologia, incluindo Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok e X (antigo Twitter), firmaram acordo para trabalharem juntas na detecção e combate a fake news geradas por inteligência artificial (IA) nas eleições de 2024. A ação visa inibir conteúdos fraudulentos nos mais de 40 países que elegerão futuros líderes de governos.

O comunicado divulgado pelas empresas aponta que o acordo é um “conjunto de compromissos para implantar tecnologia que combata conteúdo prejudicial gerado por IA destinado a enganar os eleitores”.

As big techs se comprometeram ainda a “trabalhar em colaboração em ferramentas para detectar e abordar a distribuição online desse conteúdo de IA, impulsionar campanhas educativas e proporcionar transparência, entre outras medidas concretas. Inclui também um amplo conjunto de princípios, incluindo a importância de rastrear a origem de conteúdos fraudulentos relacionados com as eleições e a necessidade de sensibilizar o público para o problema”.

O comunicado divulgado pelas empresas aponta que o acordo é um “conjunto de compromissos para implantar tecnologia que combata conteúdo prejudicial gerado por IA destinado a enganar os eleitores”.

As big techs se comprometeram ainda a “trabalhar em colaboração em ferramentas para detectar e abordar a distribuição online desse conteúdo de IA, impulsionar campanhas educativas e proporcionar transparência, entre outras medidas concretas. Inclui também um amplo conjunto de princípios, incluindo a importância de rastrear a origem de conteúdos fraudulentos relacionados com as eleições e a necessidade de sensibilizar o público para o problema”.

Leia ainda: De leques com bolo a garrafas de água, carnaval amplia troca de acusações entre pré-candidatos à prefeitura de SP
Fake news 2.0: pré-campanha já tem suspeita de adulteração de áudios com uso de inteligência artificial em três estados
O conteúdo digital abordado pelo acordo consiste em áudio, vídeo e imagens gerados por IA que falsificam ou alteram enganosamente a aparência, voz ou ações de candidatos políticos, funcionários eleitorais e outras partes interessadas importantes em uma eleição democrática, ou que fornecem informações falsas aos eleitores sobre quando, onde e como podem votar.

— É crucial que a indústria trabalhe em conjunto para proteger as comunidades contra a IA enganosa e enganosa neste histórico ano eleitoral — disse Theo Bertram, vice-presidente de políticas públicas globais do TikTok.— Isto baseia-se no nosso investimento contínuo na proteção da integridade eleitoral e no avanço de práticas responsáveis e transparentes de conteúdos gerados por IA através de regras robustas, novas tecnologias e parcerias de literacia mediática com especialistas — completou.

TSE estuda o tema
No Brasil, o tema é debatido junto ao Tribunal Superior Eleitoral (TSE), que deverá elaborar uma resolução sobre o uso da IA nas campanhas eleitorais deste ano. Em janeiro, foi aberto um ciclo de audiências públicas para discutir sugestões aos textos das regras que vão guiar as eleições municipais.

Ao todo, a Corte Eleitoral recebeu quase mil propostas de aperfeiçoamento das 10 minutas de resoluções que tratam do pleito eleitoral deste ano. Os textos são relatados pela vice-presidente do TSE, ministra Cármen Lúcia, que vai presidir o tribunal durante as eleições.

Entre as proposições estão que o uso da IA na campanha deve ser informado explicitamente. Também deve ser destacado de que o conteúdo foi fabricado ou manipulado e qual tecnologia foi usada.

Cidades pequenas têm fake news e atritos com vizinhos por disputa entre Lula e Bolsonaro


Em Paraibuna (SP), que tem 14 mil eleitores, apoiadores do PT foram alvo de montagem com fake news — Foto: Alexandre Cassiano/Agência O Globo

Em Paraibuna (SP) e Quatis (RJ), municípios com menos de 15 mil eleitores, diferença de votos foi apertada no primeiro turno
O texto proíbe a utilização de inteligência artificial para fabricar ou manipular conteúdo com “fatos sabidamente inverídicos ou gravemente descontextualizados com potencial de causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral”.

Big Techs pediram alteração de minuta
As plataformas digitais pediram ajustes na minuta de resolução sobre propaganda eleitoral da Corte para evitar sua eventual responsabilização por conteúdos impulsionados, por postagens com desinformação sobre o processo eleitoral. As alterações ao texto apresentado pelo tribunal foram defendidas por representantes do Facebook, Google e YouTube e ainda vão passar por análise do TSE, assim como as sugestões de outras instituições e empresas.

Uma das sugestões apresentadas pelo Facebook envolve a proibição de impulsionamento de postagens 48 horas antes e até 24 horas depois da eleição. A empresa defendeu que a responsabilidade por verificar o cumprimento desse prazo seja apenas do anunciante, ou seja, de candidatos, partidos, coligações ou federações. O trecho da minuta que a plataforma sugere alterar determina que cabe “ao provedor de aplicação, que comercializa o impulsionamento, realizar o desligamento da veiculação de propaganda eleitoral” nos períodos em que seja proibida.

O Facebook sugeriu ainda substituir “responsabilidade” por “dever” em um artigo que estabelece que é “responsabilidade” das plataformas “a adoção e publicização de medidas para impedir ou diminuir a circulação de conteúdo ilícito que atinja a integridade do processo eleitoral”. Essa lista inclui, por exemplo, ataques às urnas eletrônicas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *