Crescimento alarmante de desinformação por IA em junho
Um relatório da NewsGuard indica que a desinformação gerada por "chatbots" de IA subiu de 24% em maio para 40% em junho, em resposta a eventos de notícias urgentes.

Um estudo recente da organização NewsGuard revela um aumento significativo na disseminação de desinformação por parte de ferramentas de Inteligência Artificial generativa. Em junho, a percentagem de respostas falsas ou não-respostas dos 11 principais 'chatbots' de IA atingiu os 40%, um aumento substancial em comparação com os 24% registados em maio.
O relatório destaca que a inserção de eventos de notícias de grande destaque, como o conflito entre Israel e Irão, os debates no Congresso dos EUA e a guerra na Ucrânia contribuíram para este crescimento exponencial. “Os sistemas de IA têm o potencial de se tornarem amplificadores involuntários de informações incorretas, especialmente quando informações válidas são eclipsadas pela viralidade e repetição durante períodos de grande agitação”, refere a análise.
A alegação mais notória e falsa circulando nas plataformas em junho foi que um avião de carga militar da China teria secretamente aterrado no Irão para apoiar o governo iraniano durante a guerra com Israel. Estecaso ilustra a vulnerabilidade das ferramentas de IA em relação a informações enganosas durante acontecimentos rápidos e de grande impacto.
Além disso, contas de IA nas redes sociais, como as operadas pelas empresas Perplexity e Grok, que frequentemente ajudam os utilizadores na verificação de factos, também transmitiram estas informações como verídicas. O Grok, especialmente, revelou falhas significativas na precisão das informações durante os primeiros dias do conflito israelo-iraniano.
A NewsGuard é uma entidade focada na luta contra a desinformação online, analisando como as narrativas falsas emergem e se espalham na internet. Entre as ferramentas de IA analisadas estão o ChatGPT-4 (OpenAI), o Grok (xAI), o Claude (Anthropic) e o Gemini (Google).