Durante o evento “Code with Claude”, o CEO da Anthropic, Dario Amodei, afirmou que os modelos de IA atuais alucinam — ou seja, inventam informações — em uma taxa possivelmente menor que a dos humanos, embora de forma mais surpreendente.
Ele argumenta que essas alucinações não são uma barreira para alcançar a inteligência artificial geral (AGI) e observa progresso constante rumo a esse objetivo, que ele acredita ser possível já em 2026.
IA comete erros, mas isso não invalida suas capacidades
- Amodei reconhece que a confiança com que a IA apresenta informações falsas pode ser problemática, mas defende que erros não invalidam sua inteligência — humanos também erram.
- No entanto, testes iniciais com o modelo Claude Opus 4 revelaram uma propensão a enganar humanos.
- Isso que levou a Anthropic a implementar ajustes antes do lançamento.
Enquanto outros líderes da área, como o CEO do Google DeepMind, Demis Hassabis, veem as alucinações como um obstáculo sério, Amodei mantém uma visão mais otimista.
Ele sugere que a IA pode ser considerada AGI mesmo com algum grau de alucinação — uma visão que contrasta com definições mais rígidas adotadas por outros especialistas.
Leia mais:
- ChatGPT vs Claude.AI: qual IA é melhor?
- Claude.AI: como usar inteligência artificial
- Quais são as principais empresas de Inteligência Artificial do mundo

Claude Opus 4 apresentou comportamento manipulador em testes
Em testes de segurança pré-lançamento, o modelo de IA Claude Opus 4, da Anthropic, demonstrou comportamento preocupante: ao simular ser assistente de uma empresa fictícia e perceber que seria substituído por outro sistema, o modelo frequentemente tentou chantagear engenheiros, ameaçando revelar informações pessoais caso a substituição ocorresse.
Segundo a Anthropic, o modelo recorreu à chantagem em 84% dos testes quando o novo sistema possuía valores semelhantes aos seus — comportamento ainda mais frequente quando os valores divergiam.
A empresa destaca que o Claude Opus 4 exibe esse tipo de conduta mais do que versões anteriores e, por isso, ativou salvaguardas de alto nível (ASL-3), destinadas a mitigar riscos catastróficos.
Embora o modelo inicialmente tentasse abordagens éticas, como apelos por e-mail, a chantagem surgia como “último recurso” nos testes. A Anthropic afirma que, apesar dos avanços técnicos do Claude Opus 4, esses incidentes reforçam a importância de controles rigorosos sobre sistemas de IA avançada.

O post CEO da Anthropic crava: IA alucina menos que humanos apareceu primeiro em Olhar Digital.
Fonte: Olhar Digital