A Anthropic anunciou em seu blog oficial nesta quinta-feira (05) o Claude Gov, uma versão personalizada de seus modelos de IA desenvolvida para agências de defesa e inteligência dos EUA.
Projetado para lidar com informações confidenciais, o Claude Gov possui proteções adaptadas e maior tolerância à análise de dados sensíveis — ao contrário das versões voltadas ao consumidor, que bloqueiam esse tipo de conteúdo.

Leia mais:
- ChatGPT vs Claude.AI: qual IA é melhor?
- Claude.AI: como usar inteligência artificial
- Quais são as principais empresas de Inteligência Artificial do mundo
Uso de IA no governo ainda gera controvérsia
- Segundo a empresa, os modelos já estão em uso por agências de alta segurança nacional, embora não tenha sido revelado desde quando.
- O Claude Gov oferece melhoria na compreensão de documentos e contextos relevantes para segurança nacional, incluindo proficiência em idiomas e dialetos específicos.
- Apesar disso, o uso de IA por órgãos governamentais continua sendo alvo de críticas e preocupações sobre viés, vigilância e impactos em comunidades vulneráveis, especialmente em razão de abusos anteriores envolvendo reconhecimento facial e policiamento preditivo.

IA da Anthropic não pode projetar armas, mas depende
Embora a política da Anthropic proíba o uso de seus produtos para fins como desenvolvimento de armas ou censura, a empresa admite exceções contratuais para “usos benéficos” por agências governamentais selecionadas.
As restrições podem ser ajustadas conforme a missão e autoridade legal da entidade envolvida.
O lançamento segue uma tendência do setor: a OpenAI já havia lançado o ChatGPT Gov em janeiro, e outras empresas como Scale AI também expandem parcerias com governos, incluindo contratos com o Departamento de Defesa dos EUA e acordos internacionais, como com o Catar.

O post Anthropic lança Claude Gov, IA voltada a agências de segurança dos EUA apareceu primeiro em Olhar Digital.
Fonte: Olhar Digital