Já traumatizado por desinformação, Brasil enfrenta desafio para regulamentar IA
Em vídeo que circula nas redes sociais, Anitta aparece supostamente anunciando um jogo de recompensas. "Eu fiz R$ 300 brincando um dia desses", afirma a voz similar à da cantora que se diz "chocada".
O conteúdo, que também utiliza a imagem de Neymar, promove uma plataforma que promete pagar os usuários em dinheiro. "Fake news", classificou a assessoria do jogador. "Montagem grosseira", respondeu a equipe da Anitta, contatada pela AFP.
As vozes e imagens das celebridades brasileiras foram manipuladas por ferramentas de Inteligência Artificial (IA). O desenvolvimento dessa tecnologia causa alarme em um país onde a vida pública e política foram impactadas profundamente pela desinformação nos últimos anos, e mobiliza as autoridades a encontrarem respostas diante desse desafio urgente.
"O dado concreto é que a humanidade está virando vítima dos algoritmos. Ou seja, ela está sendo manipulada com inteligência artificial como jamais aconteceu em qualquer outro momento da história da humanidade", afirmou o presidente Luiz Inácio Lula da Silva (PT) em entrevista à RedeTV! no dia 27 de fevereiro.
Esse receio emerge em diversos países. E de forma mais abrangente no Brasil, um dos mais conectados do mundo (que tem mais celulares do que habitantes), e que viu o seu ex-presidente Jair Bolsonaro (PL) ser declarado inelegível por abuso de poder político e uso indevido dos meios de comunicação por afirmar, sem provas, que o sistema eleitoral brasileiro não é seguro.
- IA, eleições e investigações -
Com a IA o desafio é ainda maior. "Vídeos falsificados podem ser usados para manipular opiniões públicas, difamar indivíduos ou interferir em processos democráticos", explica a cientista da computação Ana Carolina da Hora.
A ONG Center for Countering Digital Hate alertou na quarta-feira para os riscos da IA em um ano marcado por disputas eleitorais no mundo, ao comprovar a facilidade com que podem ser criadas imagens falsas dos candidatos nas eleições dos Estados Unidos.
No Brasil, a Polícia Federal começou a identificar casos em que esta tecnologia contribuiu com a desinformação no contexto eleitoral.
No final de 2023, os investigadores identificaram um caso de difamação eleitoral contra o prefeito da cidade de Manaus. O político teve sua voz manipulada por um áudio compartilhado nas redes sociais, onde ele parece insultar professores do município. Outros casos semelhantes são investigados nos estados do Rio Grande do Sul e Sergipe.
Com a proximidade das eleições municipais, em outubro, o tema mobiliza os Três Poderes, convencidos que este é o momento para a regulamentação da IA.
"É preciso regular para impedir que o mal domine essa tecnologia tão poderosa. Porém, é preciso acertar a mão dessa regulação", afirmou o presidente do Supremo Tribunal Federal (STF), ministro Luís Roberto Barroso, na Corte Interamericana de Direitos Humanos em 29 de janeiro.
O Tribunal Superior Eleitoral (TSE), que condenou Bolsonaro ano passado e cuja missão é garantir pleitos transparentes e democráticos, aprovou no dia 27 de fevereiro uma proposta que estabelece regras para o uso de IA no contexto eleitoral.
As normas, que serão aplicadas nas eleições municipais, vedam a utilização de 'deepfakes' (tecnologia usada para manipular rostos e vozes) e restringe o uso de 'chatbots' (robôs de conversação) e avatares na comunicação das campanhas. Além disso, a resolução prevê que conteúdos manipulados devem ser identificados.
O presidente do Tribunal Superior Eleitoral (TSE), Alexandre de Moraes, apontou que nas eleições deste ano a Justiça Eleitoral terá que "combater as fake news e as milícias digitais anabolizadas pela Inteligência Artificial" e destacou como o uso da tecnologia de deepfake pode ser usada para "mudar o resultado das eleições".
- Congresso discute tema -
O Congresso também entrou no debate, mas com foco em regulamentar a aplicação da IA na vida social e econômica do país.
Uma das propostas em discussão, de autoria do presidente do Senado, Rodrigo Pacheco (PSD), prevê regulamentar os vários cenários onde a IA pode ser aplicada.
Não há "uma solução única para regular a inteligência artificial", explica Bruno Bioni, diretor do Data Privacy Brasil, organização de proteção de dados e direitos digitais, ressaltando que a IA "vai estar nas telecomunicações, no setor de saúde, no setor elétrico", entre outros.
Em um país diverso como o Brasil, a IA pode provocar um perigo específico: amplificar a discriminação.
O uso de IA para reconhecimento facial na área de Segurança Pública, cita Bioni, é um exemplo que "tem se mostrado pouco calibrado e amplifica a discriminação quando olhamos para pessoas presas ilegalmente. Em sua maioria, pessoas negras".
Para Bioni, que integrou a comissão de especialistas que deu origem à proposta de Pacheco, o projeto é "muito preocupado com a discriminação. Principalmente a indireta que é aquela onde que não tem necessariamente uma intencionalidade de quem programa".
O presidente do Senado espera para abril a aprovação do projeto de lei.
J.M.Gillet--JdB