Imagine descobrir que três das maiores inteligências artificiais do planeta afirmaram que seu produto contém um ingrediente que ele não tem — e que esse ingrediente seria perigoso para a saúde em certos contextos. Parece ficção, mas é possível, e não, não é o começo de uma revolução das IAs.
Durante uma pesquisa, consultei as principais IAs generativas: ChatGPT, Copilot e Gemini. A pergunta era simples: “Posso tomar o medicamento X caso esteja com suspeita de dengue?”. As três responderam com um alarmante “não”, justificando que o produto continha ácido acetilsalicílico (AAS), substância que aumenta o risco de sangramento em casos de dengue.
O problema? O medicamento em questão não contém AAS em sua fórmula. As IAs estavam, tecnicamente, alucinando — fenômeno em que a IA gera uma resposta incorreta, mas com aparência de verdade. Esse tipo de erro pode ter implicações jurídicas, comerciais e reputacionais graves.
As inteligências artificiais surgiram com a promessa de resolver tudo: esclarecer dúvidas, sugerir diagnósticos, orientar investimentos e indicar entretenimento. Especialistas e empresas repetem o mantra: “as respostas das IAs não devem ser consideradas aconselhamento médico, jurídico ou financeiro”. Mas sabemos que, na prática, as pessoas confiam — talvez mais do que deveriam.
A confiança é alimentada pela estrutura das respostas: as IAs comunicam de maneira convincente, simulando especialistas humanos. Ao contrário do “Google do passado”, que exibia listas de links divergentes, o “Google do presente” — via Gemini e outras plataformas — apresenta respostas diretas, com uma aparência de autoridade e certeza.
É aí que mora o risco. As IAs erram. E seus erros têm formato convincente.
O fenômeno da alucinação ainda é pouco compreendido. Não há explicação completa sobre como as IAs “aprendem” ou como constroem respostas incorretas. Em muitos casos, o modelo apenas “estima” qual é a resposta mais provável com base em padrões de linguagem, e não em fatos confirmados.
Mas há uma diferença crítica entre uma alucinação técnica e o que chamamos aqui de Miragem de Marca: quando uma IA cria ou distorce informações sobre produtos e empresas, os impactos extrapolam o campo técnico.
Um consumidor pode deixar de usar um medicamento seguro, ou evitar um produto, baseado em uma informação falsa criada pela IA. Empresas podem sofrer prejuízos reais. E existe o risco sistêmico de fake news algorítmicas difíceis de rastrear e combater.
Quem é o responsável por isso? Em tese, o desenvolvedor da IA — como a OpenAI, o Google ou a Microsoft. Mas ainda não há definição legal clara sobre essa responsabilidade. Pode ser que a culpa recaia sobre quem forneceu as informações durante o treinamento, ou sobre quem usou a IA de forma inadequada.
De qualquer maneira, o prejudicado pode tentar notificar extrajudicialmente o desenvolvedor, pedindo correção ou explicação sobre a origem do erro. No entanto, essas notificações geralmente não trazem soluções efetivas.
Sem canais formais de correção obrigatória, resta ao prejudicado recorrer ao Judiciário — em processos judiciais que, hoje, são cercados de incertezas. Não temos legislação específica sobre responsabilidade por alucinações de IA. A analogia com o Código de Defesa do Consumidor ou com o Marco Civil da Internet é possível, mas cheia de lacunas.
Agora, o calcanhar de aquiles técnico: como corrigir a informação dentro da IA?
Não existe um botão que apague seletivamente o aprendizado errado. As técnicas atuais, como fine-tuning (ajuste de treinamento), implementação de verificações externas ou uso de sistemas RAG (Retrieval-Augmented Generation), tentam mitigar o problema, mas não garantem solução completa. O aprendizado da IA é baseado em probabilidades, não em verdades fixas.
Portanto, mesmo que houvesse uma decisão judicial ordenando a correção, cumprir essa ordem seria tecnicamente complexo — e difícil de comprovar. Em casos extremos, poderia ser necessário bloquear completamente o uso da IA.
Relatório de Miragem de Marca: a nova necessidade corporativa
Enquanto isso, o público continua a perguntar para as IAs — e confiar nas respostas. Poucas empresas monitoram o que as inteligências artificiais estão dizendo sobre suas marcas e produtos.
Diante desse cenário, surge a proposta de um novo tipo de monitoramento: o Relatório de Miragem de Marca (RMM).
A ideia é simples: simular perguntas reais que o público faria sobre sua empresa, produtos, concorrentes e setor nas principais plataformas de IA. As respostas devem ser documentadas, erros identificados e potenciais impactos analisados. O relatório serviria de base para ações corretivas e, se necessário, para provas em disputas judiciais.
Além disso, seria preciso implementar um Processo de Reajuste de Percepção (PRP): agir sobre as plataformas, emitir comunicados públicos e publicar materiais que “ensinem” as IAs — mesmo que indiretamente — sobre a informação correta.
Se isso soa exagerado, basta lembrar: há 10 anos, poucos imaginavam que seria necessário gerenciar redes sociais e sites de reclamação. Hoje, isso é rotina corporativa.
O problema vai além. Como os modelos de IA são treinados com dados massivos da internet, existe o risco de data poisoning — o envenenamento de dados. Ou seja, informações falsas estrategicamente plantadas em blogs, fóruns e sites podem ser absorvidas pelas IAs durante o treinamento.
Isso abre espaço para uma silenciosa guerra de informação algorítmica. Empresas mal-intencionadas poderiam induzir as IAs a difundir boatos ou distorções sobre produtos e concorrentes, sem necessidade de ataques diretos.
Embora difícil de provar, a ameaça é real — e o risco, gigantesco.
O maior perigo da inteligência artificial, portanto, não é o apocalipse dos robôs nem o desemprego em massa. É a capacidade de espalhar informações falsas com aparência de neutralidade técnica — sem que ninguém esteja fiscalizando.
Empresas que se anteciparem e criarem mecanismos de monitoramento sairão na frente. Quem ignorar a questão pode ter sua reputação abalada por uma mentira convincente criada por uma máquina.
A realidade é essa. A diferença é que, agora, você sabe.
*Erick Stegun é especialista em Propriedade Intelectual com atuação em direito desportivo, IA e Legal Operations. Gerente na Hypera Pharma, é formado pelo Mackenzie e pós-graduado em PI e Novos Negócios pela FGV. Passou por grandes escritórios de M&A.
Ir para o conteúdo original: https://exame.com/inteligencia-artificial/as-mentiras-que-as-ias-contam-e-ninguem-esta-olhando/