Política

IA nas eleições de 2024: grandes empresas lutam para impedir que tecnologia atrapalhe processos democráticos pelo mundo

Companhias estão agindo para evitar que a inteligência artificial ameace a democracia, mesmo com ferramentas cada vez mais poderosas


por Canal Dez
23/03/2024 às 11:26
IA nas eleições de 2024: grandes empresas lutam para impedir que tecnologia atrapalhe processos democráticos pelo mundo

Reprodução internet

O uso da inteligência artificial (IA) para as eleições de 2024 será marcado por uma mudança significativa: a proibição dessa tecnologia na aplicação de campanhas ou lobby. Essa medida foi tomada em resposta a preocupações crescentes sobre a influência excessiva da IA na manipulação de eleitores e na distorção do processo democrático. As Grandes empresas já estão correndo atrás de meios para  estabelecer limites em um ano de eleições importantes, espalhadas por  todo o mundo. 

Antes da nova medida, a IA era amplamente utilizada por candidatos e grupos de interesse para segmentar eleitores, personalizar mensagens de campanha e até mesmo disseminar desinformação de maneira altamente direcionada. Isso levantou preocupações sobre a capacidade  de a IA  criar bolhas de informação e reforçar preconceitos, minando assim a integridade das eleições. No mês passado, a OpenAI, desenvolvedora do ChaptGPT, informou que estava trabalhando para evitar o abuso de suas ferramentas nas eleições, proibindo seu uso para criar chatbots que fingem ser pessoas ou instituições. 

Ao proibir o uso exagerado da IA para esses fins, o Google também disse que limitaria seu chatbot de IA de responder a determinadas solicitações relacionadas às eleições. A Meta, responsável pelo Instagram e Facebook, também prometeu rotular melhor o conteúdo gerado pela IA. Para Jonathan Arend - Principal Consultant da keeggo: “Tanto as pessoas quanto as companhias precisam adotar medidas de segurança proativas para se precaver de eventuais incidentes, investindo no uso de tecnologias que auxiliam com a segurança ofensiva, discutindo sobre questões éticas, conscientizando os envolvidos sobre o assunto, além de adequarem-se a regulamentos e a legislações que garantam a Integridade e a Privacidade das informações”.

Grandes players de tecnologia assinaram, na última sexta-feira (20) , um compromisso  a partir do qual se voluntariaram a produzir meios para   evitar que conteúdos enganosos atrapalhem a votação deste ano. Nomes como Adobe, Amazon, Anthropic, Google, Meta, Microsoft, OpenAI, Tik Tok e X estão juntas no acordo. 

Embora alguns críticos tenham argumentado que essa proibição poderia limitar a inovação e a eficácia das campanhas políticas, seus defensores destacaram a importância de proteger a integridade das eleições contra manipulações tecnológicas. Além disso, a proibição não impede o uso da IA para outros fins, como aprimorar a segurança cibernética das eleições ou analisar dados demográficos para melhorar políticas públicas. “O compromisso das empresas de tecnologia para evitarem conteúdos enganosos é bastante positivo para as equipes de Segurança das empresas. Embora existam preocupações neste sentido, a proibição não impede o uso da Inteligência Artificial para propósitos benéficos”, comenta Jonathan Arend.

No fim , a proibição do uso da IA na aplicação de campanhas ou em lobby nas eleições deste ano marca um importante passo em direção a um processo eleitoral mais justo e transparente, equilibrando o potencial da tecnologia com a necessidade de proteger os princípios democráticos fundamentais. Os esforços fazem parte de um plano das empresas de IA para controlar a tecnologia, cada vez mais popular,  à medida que bilhões de pessoas vão às urnas pelo mundo. Pelo menos 83 eleições estão previstas para 2024, a maior concentração  nos próximos 24 anos, de acordo com os dados da Anchor Change, empresa de consultoria. Não se sabe ao certo  qual a eficácia das restrições devido ao avanço e aprimoramento diário das tecnologias. Nos Estados Unidos, o conteúdo gerado já apareceu em campanhas políticas, o que provocou reações regulatórias e legais. 

Países como Argentina, Austrália, Grã-Bretanha e Canadá, também passaram por problemas criados pela IA, como retratos enganosos ou perfis de políticos. Recentemente, o ex-primeiro-ministro Imran Khan, cujo partido conquistou o maior número de cadeiras nas eleições do Paquistão, usou uma voz de IA para declarar-se vitorioso enquanto estava na prisão. 

No Brasil, todos os esforços estão concentrados para minimizar problemas relacionados a montagens de fotos, vídeos, áudios e mensagens em redes como WhatsApp e Telegram. O especialista listou algumas dicas que podem ajudar na identificação de uma fake news, são estas: 

Valide a real fonte das informações, dando mais credibilidade para veículos conhecidos e confiáveis;
Confirme se estas informações estão sendo relatadas em múltiplas fontes;
Analise o contexto das informações, questionando-as quando necessário;
Verifique a data de publicação do conteúdo para justamente validar se é atual;
Examine a qualidade e a gramática da notícia;
Evite compartilhar informações suspeitas;
Promova a conscientização de segurança em meios cibernéticos.