Valor Econômico: EPPGG alerta para riscos do uso da IA nas eleições
Foto: Freepik
A Inteligência Artificial (IA), apesar das possibilidades positivas de uso, podem criar ambientes tóxicos e perigosos para a convivência social e para a democracia. É o que afirma o EPPGG aposentado Francisco Gaetani, atualmente secretário extraordinário para a Transformação do Estado no Ministério da Gestão e da Inovação em Serviços Públicos, em artigo publicado no Valor Econômico na última sexta-feira (1). O texto tem coautoria de Virgílio Almeida, ex-secretário de Política de Informática do Ministério da Ciência, Tecnologia e Inovação. “A política e o poder sempre fizeram uso de tecnologias emergentes para conquistar o eleitor, desde o rádio, a TV, a internet, os celulares e as redes sociais. E com a IA não será diferente. Poderá ser usada para informar melhor ao eleitor sobre planos e projetos. Mas será usada também para disseminar mentiras e falsas ilusões”, asseveram.
Para os autores, uma forma de antecipar os riscos democráticos e de se compreender mais realisticamente a relevância das IAs nas eleições é observar países que passaram recentemente por processos eleitorais – como a Índia: “As eleições gerais em 2024 serviram como um verdadeiro teste para o uso da IA em campanhas políticas. Embora não tenham provocado os impactos negativos na escala que muitos temiam, o uso da tecnologia revelou tanto seu potencial inovador, quanto vulnerabilidades importantes, especialmente diante do contexto social e econômico do país. O caso indiano – a maior democracia do mundo, com 968 milhões de eleitores – é relevante devido ao intenso uso de IA e tecnologias digitais ao longo do processo eleitoral”.
Nesse sentido, eles ressaltam uma preocupação central: o perfilamento e segmentação de eleitores para envio de mensagens hiperpersonalizadas (muitas vezes falsas) criadas com áudios e imagens gerados por IA. Na Índia, com menos de R$ 400 mil reais, foi possível fazer cerca de 500 mil ligações com mensagens personalizadas usando voz (real ou falsa) de um político, substituindo discursos genéricos em comícios. Os autores apontam que – para funcionar – esse tipo de estratégia depende de dados detalhados dos eleitores, o que, no Brasil, pode configurar violação da Lei Geral de Proteção de Dados Pessoais (LGPD). “Nesse cenário, redes sociais e aplicativos de comunicação têm papel crucial, pois concentram dados e interesses pessoais de mais de 100 milhões de brasileiros em plataformas como Facebook, Instagram, WhatsApp, YouTube e TikTok”.
A respeito das big techs, o texto relembra eventos recentes que apontam mudanças importantes que vão moldar o futuro próximo, como a decisão do STF sobre o artigo 19 do Marco Civil da Internet, que define que as big techs têm responsabilidade limitada por conteúdos nocivos, introduzindo a moderação pró-ativa e fortalecendo o papel do TSE no processo eleitoral. “As big techs poderiam colaborar na construção de soluções. Têm conhecimento, tecnologia e influência para isso. No entanto, ao adotarem uma postura defensiva, preferem judicializar e desqualificar esforços nacionais, tratando qualquer mudança como ameaça. Elas resistem a agir de forma proativa por temerem criar precedentes globais, entrincheirando-se no laissez-faire predominante. Não precisa ser assim. Essa postura não é inevitável”, concluem.