Logo TecMundo
Internet

Como a inteligência artificial pode influenciar as eleições de 2026

Entenda como a inteligência artificial pode influenciar campanhas, desinformação e o voto nas eleições de 2026.

Avatar do(a) autor(a): Redação TecMundo

schedule05/12/2025, às 09:15

updateAtualizado em 04/02/2026, às 08:35

Chatbots e outras plataformas de inteligência artificial (IA) generativa crescem a um ritmo acelerado em qualidade na criação de materiais. Essas melhorias constantes farão com que as eleições de 2026 no Brasil sejam as primeiras em que haverá uma provável maior utilização dessas ferramentas.

Por mais que ChatGPT e outros rivais já existam há mais tempo, a geração de imagens, áudios e até vídeos chegou a um ponto mais impressionante e perigoso só recentemente. Isso traz questionamentos sobre como inteligências artificiais podem impactar eleições de 2026.

smart_display

Nossos vídeos em destaque

A seguir, refletimos sobre o como a inteligência artificial vai impactar a sociedade ao avaliar casos recentes nas redes sociais e aborda temas como usos ilegais de manipulação e desinformação em larga escala.

Como a inteligência artificial pode influenciar eleições em 2026?

A IA pode ter um peso grande nas eleições de 2026 na medida em que é capaz de criar conteúdos artificiais altamente realistas, mas que representam situações falsas e enganosas.

Em especial, ela pode ser utilizada para criar materiais artificiais a partir de mídias como texto, áudio imagem e vídeo

pessoa-usando-smartphone-com-interface-de-chatbot-e-icones-de-inteligencia-artificial-flutuando-na-tela
Chatbots criadores de conteúdo tendem a melhorar ainda mais com o tempo. (Imagem: Getty Images)

Esses conteúdos falsos podem permanecer muito tempo no ar ou até ser espalhados por outros serviços mais difíceis de serem monitorados, como é o caso do mensageiro WhatsApp.

Além disso, plataformas como o ChatGPT podem ser adotadas como conselheiros de eleitores e, caso apresentem algum viés político, ajudarem na decisão de voto de uma pessoa.

Apesar de dificilmente conseguirem influenciar sozinhas a definição de uma eleição, já que há muitos outros fatores em jogo, essas montagens fraudulentas podem prejudicar a imagem de candidatos e direcionar esforços de órgãos eleitorais que poderiam se concentrar em outras atividades no período.

Deepfakes e manipulação de imagens

A atual preocupação mais grave envolve a criação de imagens e vídeos a partir tanto de técnicas generativas quanto pelo uso de deepfakes. Essas são as formas atualmente mais sofisticadas de criar conteúdos e, portanto, têm potencial desinformativo igualmente alto.

Deepfakes são vídeos criados a partir de uma ferramenta capaz de simular o rosto ou voz de alguém, inserindo esse elemento no corpo de outra pessoa ou adicioná-lo em um contexto totalmente falso.

Pesquisas indicam que ataques de deepfake cresceram 126% no Brasil, em fraudes que envolvem roubar a identidade de famosos para aplicação de golpes, chantagear vítimas ou espalhar desinformação com montagens.

Na política, isso pode ser feito ao colocar adversários políticos em situações polêmicas ou controversas, por exemplo, criar apoios falsos a um candidato ou até gerar falsas denúncias envolvendo a campanha do oponente ou o próprio sistema de votação.

O efeito contrário também é possível, como posicionar um candidato em um local em que ele não estava, rodado de falsos eleitores e realizando ações positivas que nunca foram feitas.

Exemplos de deepfakes na política

O segundo governo de Donald Trump já acumula usos de IA para fins políticos, a maioria deles para enaltecer a figura do presidente por meio de montagens em imagem ou então para representar uma possível reação do empresário a ataques da oposição.

imagem-gerada-por-ia-com-homem-de-tesouro-loiro-terno-e-gravata-vermelha-entre-grupo-de-pessoas-sorrindo-em-foto-compartilhada-no-x
Uma montagem positiva de Trump em meio a eleitoras negras, grupo em que ele ainda buscava maior popularidade. (Imagem: Reprodução/X)

No Brasil, foram registrados deepfakes eleitorais já em 2024, com áudios manipulados por IA que copiaram a voz de políticos em campanha. 

Além disso, neste ano, um vídeo que mostra o ministro Alexandre de Moraes apoiando Jair Bolsonaro viralizou no TikTok e era claramente uma criação artificial.

Bots, redes sociais e desinformação eleitoral

Contas automatizadas, criadas em alta quantidade e talvez até com conteúdos (como foto de perfil e textos) gerados artificialmente também são encarados como problemas nas campanhas eleitorais.

Esses robôs podem ser usados para espalhar conteúdos falsos ou criar campanhas massivas de desinformação ou espalhamento de mensagens de apoio artificiais. 

chatbot-de-ia-no-celular
Chatbots já têm uma forma de conversa natural e dinâmica.  (Imagem: ArtistGNDphotography/Getty Images)

Além disso, há a possibilidade de criação de perfis falsos realistas, que representem eleitores que não existem ou sejam usados para disseminação de conteúdos fraudulentos.

Notícias falsas criadas por uma IA de texto ainda podem ser espalhadas por boatos sem fundamentação, com um tom exagerado de urgência e sem evidências consistentes.

Como governos estão se preparando?

O Tribunal Superior Eleitoral (TSE) já regulamentou desde 2024 que é proibida a utilização de deepfakes em ataques "para prejudicar e desacreditar pessoas". As empresas de tecnologia serão as responsáveis por tirar esse tipo de conteúdo do ar.

Além disso, qualquer adoção de IA deve ser sinalizada na campanha e há restrições no uso de chatbots para interagir com eleitores. Mais detalhes e atualizações dessas normas devem ser compartilhados meses antes da campanha de 2026.

foto-de-urna-eletronica-brasileira
Primeiro turno das eleições acontece em 4 de outubro de 2026. (Imagem: Tânia Rêgo/Agência Brasil)

O país também está desenvolvendo políticas variadas de IA para não exatamente combater possíveis crimes, mas auxiliar em processos públicos e desenvolver até mesmo um grande modelo de linguagem (LLM) brasileiro.

Como identificar conteúdos manipulados por IA

Apesar do alto grau de realismo dos materiais produzidos atualmente por IA, há algumas formas de identificar ou ao menos aumentar as suspeitas de que um conteúdo foi ou não manipulado por essas ferramentas.

  • Fique atento a imperfeições em áudios, vídeos e imagens. Esses sinais incluem problemas de texturas, cores ou iluminação, além de problemas de dicção no caso de áudios;
  • A sincronia labial ainda é uma dificuldade em vídeos de IA e dificilmente a boca das pessoas envolvidas casa perfeitamente com uma fala;
  • Ainda no caso de vídeos, a quantidade de cortes de cena pode ser uma evidência: os serviços hoje são capazes de gerar clipes de poucos segundos, o que exige um novo prompt que pode trazer erros de continuidade, por exemplo;
  • No caso de textos, a utilização de um vocabulário já conhecido por chatbots, subtítulos com emojis, divisão por tópicos e erros factuais ou culturais podem entregar que o material é falso;
  • Busque pelas logos de plataformas de IA no canto das telas. Ferramentas como o Gemini atualmente indicam por meio do símbolo da ferramenta se o conteúdo foi criado por ele.

Apesar de algumas iniciativas em andamento por empresas como a Google, ainda não há métodos totalmente comprovados para detectar um conteúdo feito por IA. Análises de metadados invisíveis ao usuário são esperados para auxiliar nesse tipo de avaliação.

Dicas para não cair em deepfakes e fake news

Para além das possibilidades que apontamos acima, há outros que devem ser considerados para uma pessoa tome cuidado com desinformação nas eleições de 2026 nas rede sociais.

Inicialmente, questione conteúdos recebidos, mesmo de pessoas de confiança. Materiais muito fiéis à realidade ou bem produzidos podem enganar até mesmo parentes, amigos e pessoas sem um interesse eleitoral por trás do compartilhamento.

Ainda neste ponto, analise os materiais com cautela, seguindo as orientações citadas anteriormente, e use ferramentas como a pesquisa reversa para achar a origem de um material.

Procure também acessar as fontes primárias ou especializadas em informações, como portais de notícia de confiança, instituições públicas ou até agências de checagem. Esses ambientes podem até mesmo desmentir materiais falsos que estejam circulando.

Quer continuar informado sobre tendências e novidades da IA? Confira outros conteúdos sobre o tema disponíveis no TecMundo!

Perguntas Frequentes

Como a inteligência artificial pode impactar as eleições de 2026 no Brasil?
A inteligência artificial pode impactar significativamente as eleições de 2026 ao permitir a criação de conteúdos altamente realistas, mas falsos, como textos, áudios, imagens e vídeos manipulados. Isso pode influenciar a opinião pública, disseminar desinformação e afetar a integridade do processo eleitoral.
O que são plataformas de IA generativa e qual seu papel nas eleições?
Plataformas de IA generativa, como chatbots e geradores de imagem, áudio e vídeo, são sistemas capazes de criar conteúdos novos a partir de dados existentes. Nas eleições, essas ferramentas podem ser usadas para produzir materiais que simulam situações reais, mas que são, na verdade, fabricadas, podendo manipular a percepção dos eleitores.
Por que as eleições de 2026 serão diferentes das anteriores em relação ao uso de IA?
As eleições de 2026 devem marcar um ponto de virada porque a qualidade das ferramentas de IA generativa evoluiu rapidamente nos últimos anos. Embora tecnologias como o ChatGPT já existam há algum tempo, apenas recentemente a geração de imagens, áudios e vídeos atingiu um nível mais impressionante e potencialmente perigoso, aumentando o risco de manipulação em larga escala.
Quais são os riscos do uso de IA na criação de desinformação eleitoral?
O principal risco é a criação de conteúdos falsos que parecem autênticos, como vídeos ou áudios de candidatos dizendo coisas que nunca disseram. Isso pode enganar eleitores, distorcer debates públicos e comprometer a confiança no processo democrático. A disseminação em redes sociais amplia ainda mais o alcance e o impacto dessas manipulações.
A IA pode ser usada de forma legal e ética em campanhas eleitorais?
Sim, a IA pode ser usada de forma ética, por exemplo, para personalizar mensagens de campanha, automatizar atendimentos com chatbots ou analisar dados de forma eficiente. No entanto, o uso ilegal e manipulativo, como a criação de desinformação, é o que levanta maiores preocupações para as eleições de 2026.
star

Continue por aqui