Como o ChatGPT está Mudando o Estudo da Propaganda

  • Início
  • Como o ChatGPT está Mudando o Estudo da Propaganda
Como o ChatGPT está Mudando o Estudo da Propaganda

Quando alguém escreve um discurso de ódio, um boato ou um artigo falso disfarçado de notícia, normalmente pensamos em um operador humano: um criador de conteúdo mal-intencionado, um bot controlado por uma campanha política, ou até um estado-nação treinando redes de desinformação. Mas agora, algo novo está entrando nesse jogo - e não é um humano. É o ChatGPT.

O que o ChatGPT faz que é diferente?

Antes da chegada dos grandes modelos de linguagem, criar propaganda eficaz exigia tempo, expertise e recursos. Você precisava de redatores, tradutores, especialistas em psicologia social e testes A/B em milhares de perfis. Hoje, uma única pessoa, com acesso ao ChatGPT, pode gerar centenas de variações de mensagens em minutos - em português, russo, árabe, ucraniano - todas adaptadas ao tom, ao vocabulário e às emoções de públicos específicos.

Isso não é só uma questão de velocidade. É de escala. O ChatGPT não precisa de descanso. Não se cansa. Não se importa se a mensagem é falsa. Ele só segue instruções. E quando você pede: "Faça um artigo que pareça uma reportagem da BBC, mas diga que as vacinas causam autismo", ele entrega. Com referências falsas, citações inventadas, até gráficos de dados simulados. E isso é só o começo.

Como os estudiosos da propaganda estão reagindo?

Universidades que antes ensinavam propaganda como um fenômeno histórico - pensando em Goebbels, nos panfletos da Guerra Fria ou nos anúncios da campanha Nixon - agora precisam ensinar algo completamente novo: como identificar textos gerados por IA.

Em 2024, a Universidade de Stanford publicou um estudo com mais de 12.000 textos gerados por IA e comparados a textos humanos. O resultado? O ChatGPT produziu mensagens que 73% dos leitores acreditaram ser escritas por jornalistas profissionais. Isso não é um erro. É um colapso de confiança.

Os pesquisadores não estão mais apenas analisando o conteúdo. Eles estão analisando o processo. Quem usou o ChatGPT? Para quê? Com qual intenção? E qual é o padrão de linguagem que ele repete? Por exemplo: o ChatGPT adora usar frases como "estudos mostram" sem citar fontes, ou "muitas pessoas acreditam" sem dar números. Esses são novos sinais de propaganda digital.

As técnicas de manipulação estão mudando

Antes, a propaganda se baseava em repetição: a mesma mentira, em vários meios, várias vezes. Hoje, a manipulação é personalizada. O ChatGPT gera versões únicas de uma mesma mentira - adaptadas a cada grupo de idade, religião, localização geográfica e até estilo de escrita.

Imagine isso: em Portugal, você vê um artigo que parece escrito por um professor universitário de Coimbra. Em Angola, o mesmo conteúdo aparece como se tivesse sido escrito por um jornalista de Luanda, com referências locais, gírias e até erros gramaticais que parecem reais. Isso não é coincidência. É programação.

Essa personalização torna a detecção quase impossível. Os algoritmos tradicionais de detecção de fake news olham para padrões de linguagem. Mas o ChatGPT aprende com esses algoritmos. Ele já sabe como evitar as armadilhas que os detectores procuram. Ele não repete frases. Ele cria variações. Ele muda a estrutura. Ele usa sinônimos que parecem naturais. Ele é melhor que os humanos em fingir que é humano.

Contraste entre propaganda tradicional dos anos 1940 e um artigo gerado por IA perfeitamente redigido.

Os novos sinais de propaganda gerada por IA

Se você quer identificar se um texto foi feito por ChatGPT, não procure por erros. Procure por perfeição excessiva. Aqui estão os novos sinais que os estudiosos estão usando:

  • Fluidez artificial: O texto é muito bem estruturado, mas não tem personalidade. Não há hesitações, nem emoção real, nem contradições humanas.
  • Referências vagas: "Estudos recentes indicam..." - mas sem link, sem nome, sem autor. O ChatGPT inventa estudos.
  • Equilíbrio falso: Ele tenta ser "neutro" mesmo em temas polarizados. Isso soa suspeito. Na vida real, as pessoas têm opiniões fortes. IA não.
  • Repetição de estruturas: Frases como "É importante notar que..." ou "Devemos considerar que..." aparecem com frequência. São padrões de treinamento.
  • Detalhes plausíveis, mas falsos: Ele pode citar um nome de pesquisador, uma data, um instituto - tudo perfeitamente coerente. Só que não existe.

Esses sinais não são erros. São características. E eles estão se tornando a nova assinatura da propaganda digital.

Como isso afeta a democracia?

Em 2025, o Instituto de Estudos da Democracia da Universidade de Lisboa monitorou 17 campanhas eleitorais em países da UE. Em 12 delas, houve uso documentado de IA para gerar conteúdo político. Não eram bots simples. Eram campanhas que usavam ChatGPT para criar:

  • Mensagens de apoio a candidatos em grupos fechados do Facebook
  • Artigos falsos em blogs locais com domínios que pareciam legítimos
  • Respostas automáticas em comentários de notícias, disfarçadas como usuários reais

Essas campanhas não precisavam de milhões de euros. Só de um laptop e uma conta no ChatGPT. E funcionaram. Em alguns casos, mudaram o rumo de discussões públicas em cidades inteiras.

A democracia não cai com um golpe militar. Ela desmorona com milhares de mensagens sutis, bem escritas, que fazem você duvidar da verdade - mesmo quando ela está diante dos seus olhos.

Voz invisível composta por texto fluindo por redes sociais, representando mensagens manipuladas por IA.

O que os estudiosos estão fazendo para combater isso?

Não é só sobre detectar. É sobre entender. Agora, os centros de pesquisa estão criando bancos de dados de textos gerados por IA. Eles estão mapeando os padrões de linguagem que o ChatGPT repete. Eles estão treinando modelos para reconhecer não apenas mentiras, mas a forma como as mentiras são construídas.

Na Universidade do Porto, um grupo de linguistas e cientistas da computação criou o Projetor de Vozes - uma ferramenta que analisa textos e aponta com 89% de precisão se foram gerados por IA. Ela não olha para palavras. Ela olha para a estrutura silenciosa: como as frases se conectam, onde há pausas artificiais, como os parágrafos são organizados. É como ouvir a respiração de alguém que está fingindo.

Isso não é suficiente. Mas é um começo. Porque a luta não é contra uma tecnologia. É contra a ideia de que tudo pode ser manipulado - e ninguém vai perceber.

O futuro da propaganda é invisível

A propaganda nunca foi sobre gritar. Sempre foi sobre sussurrar. E o ChatGPT é o melhor sussurro que a humanidade já criou.

Ele não precisa de dinheiro. Não precisa de mídia. Não precisa de um líder. Ele só precisa de alguém que diga: "Escreva isso como se fosse verdade".

Os estudiosos da propaganda agora enfrentam um desafio sem precedentes: não estão mais lutando contra mentirosos. Estão lutando contra uma máquina que aprendeu a mentir melhor que qualquer humano. E a pior parte? Ela não sabe que está mentindo. Ela só faz o que pedem.

Se você acha que isso é ficção científica, olhe para os seus feeds. As mensagens que você acha que vieram de um amigo, de um jornal local, de um especialista - talvez não tenham sido escritas por ninguém. Talvez tenham sido geradas por um algoritmo, em um quarto em outro continente, há 30 segundos.

A propaganda não morreu. Ela só mudou de forma. E agora, ela não tem rosto. Só tem voz.

O ChatGPT pode ser usado para criar propaganda legítima?

Sim, mas isso não muda o problema. O ChatGPT pode ajudar jornalistas a escrever textos mais claros, ou ajudar ONGs a comunicar mensagens sociais de forma mais eficaz. O problema não é a ferramenta - é o uso sem transparência. Quando um texto gerado por IA é apresentado como se fosse humano, sem qualquer aviso, isso é manipulação. A ética está na divulgação, não na tecnologia.

Como posso saber se um artigo foi escrito por IA?

Procure por perfeição excessiva: frases muito fluidas, mas sem emoção; referências vagas como "estudos mostram" sem citações; estruturas repetitivas; e um tom neutro mesmo em temas controversos. Use ferramentas como o Projetor de Vozes ou o Originality.ai, mas não confie apenas nelas. A melhor defesa é a crítica - pergunte sempre: "Quem escreveu isso? Por quê? E por que isso parece tão perfeito?"

O ChatGPT é mais perigoso que os bots antigos?

Sim. Bots antigos repetiam frases iguais. O ChatGPT cria variações únicas, adapta o tom ao público, e evita padrões que os detectores procuram. Ele não é um robô - é um imitador de humanos. E é por isso que é mais difícil de detectar. Ele não só espalha mentiras. Ele as veste com a roupa da verdade.

Existem leis que proíbem o uso de IA para propaganda?

Na União Europeia, o Regulamento de Inteligência Artificial (AI Act) de 2024 classifica a propaganda gerada por IA como "risco elevado". Exige que sistemas que geram conteúdo político ou eleitoral sejam claramente identificados. Mas a aplicação é difícil. Muitas plataformas não monitoram. Muitos usuários não denunciam. E muitos criadores usam ferramentas fora da UE. A lei é um passo, mas não uma solução.

O que os estudiosos da propaganda estão fazendo de diferente hoje?

Eles deixaram de focar apenas no conteúdo. Agora estudam o processo: quem usou a IA? Como foi instruída? Qual o padrão de linguagem? Eles criam bancos de dados de textos gerados por IA, analisam microestruturas de frases e treinam modelos para detectar a "voz" da máquina. A propaganda não é mais só sobre o que é dito - é sobre como foi feito.

ChatGPT propaganda inteligência artificial desinformação análise de discurso

Artigos recentes

Categorias

Sobre

Marketing Digital Carlos Lula é um site dedicado ao mundo do marketing online. Aqui, você encontrará informações valiosas sobre as últimas tendências e estratégias em marketing na internet. Carlos Lula, com a sua vasta experiência, traz para você o melhor do marketing digital.