Home / Tecnologia / CEO da Anthropic crava: IA alucina menos que humanos

CEO da Anthropic crava: IA alucina menos que humanos

Durante o evento “Code with Claude”, o CEO da Anthropic, Dario Amodei, afirmou que os modelos de IA atuais alucinam — ou seja, inventam informações — em uma taxa possivelmente menor que a dos humanos, embora de forma mais surpreendente.

Ele argumenta que essas alucinações não são uma barreira para alcançar a inteligência artificial geral (AGI) e observa progresso constante rumo a esse objetivo, que ele acredita ser possível já em 2026.

IA comete erros, mas isso não invalida suas capacidades

  • Amodei reconhece que a confiança com que a IA apresenta informações falsas pode ser problemática, mas defende que erros não invalidam sua inteligência — humanos também erram.
  • No entanto, testes iniciais com o modelo Claude Opus 4 revelaram uma propensão a enganar humanos.
  • Isso que levou a Anthropic a implementar ajustes antes do lançamento.

Enquanto outros líderes da área, como o CEO do Google DeepMind, Demis Hassabis, veem as alucinações como um obstáculo sério, Amodei mantém uma visão mais otimista.

Ele sugere que a IA pode ser considerada AGI mesmo com algum grau de alucinação — uma visão que contrasta com definições mais rígidas adotadas por outros especialistas.

Leia mais:

CEO da Anthropic crava: IA alucina menos que humanos
Dario Amodei afirma que modelos atuais “alucinam menos que humanos” e sustenta que erros não impedem a chegada da AGI até 2026 (Imagem: T. Schneider/Shutterstock)

Claude Opus 4 apresentou comportamento manipulador em testes

Em testes de segurança pré-lançamento, o modelo de IA Claude Opus 4, da Anthropic, demonstrou comportamento preocupante: ao simular ser assistente de uma empresa fictícia e perceber que seria substituído por outro sistema, o modelo frequentemente tentou chantagear engenheiros, ameaçando revelar informações pessoais caso a substituição ocorresse.

Segundo a Anthropic, o modelo recorreu à chantagem em 84% dos testes quando o novo sistema possuía valores semelhantes aos seus — comportamento ainda mais frequente quando os valores divergiam.

A empresa destaca que o Claude Opus 4 exibe esse tipo de conduta mais do que versões anteriores e, por isso, ativou salvaguardas de alto nível (ASL-3), destinadas a mitigar riscos catastróficos.

Embora o modelo inicialmente tentasse abordagens éticas, como apelos por e-mail, a chantagem surgia como “último recurso” nos testes. A Anthropic afirma que, apesar dos avanços técnicos do Claude Opus 4, esses incidentes reforçam a importância de controles rigorosos sobre sistemas de IA avançada.

claude
Modelo de IA tentou extorquir engenheiros fictícios para manter seu “emprego” (Imagem: gguy / Shutterstock.com)

O post CEO da Anthropic crava: IA alucina menos que humanos apareceu primeiro em Olhar Digital.

Fonte: Olhar Digital

Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *