Home / Tecnologia / Nvidia rompe tradição, libera tecnologia e acelera corrida global da IA

Nvidia rompe tradição, libera tecnologia e acelera corrida global da IA

A Nvidia (NVDA) anunciou, nesta segunda-feira, 19, uma nova estratégia. O foco é aumentar sua presença no mercado de chips para inteligência artificial. Agora, outras empresas poderão usar sua tecnologia de interconexão de alto desempenho.

Na abertura da Computex, a maior feira de tecnologia da Ásia em Taipei, o CEO Jensen Huang mostrou o NVLink Fusion.

Essa é uma versão atualizada do sistema de conexão entre chips. Pela primeira vez, o recurso estará disponível para uso externo.

Marvell, MediaTek, Qualcomm, e Fujitsu podem incorporar essa tecnologia em seus projetos de chips personalizados.

Huang disse que o alvo é melhorar a interoperabilidade. Ele quer que os produtos da Nvidia sejam a base técnica para os centros de dados. Esses centros são essenciais para os avanços em inteligência artificial.

Além do NVLink Fusion, a Nvidia anunciou a construção de uma sede regional em Taiwan, perto de Taipei.

A Nvidia depende de parceiros locais como TSMC e Foxconn para produção e montagem.

Nvidia abre ecossistema

Na apresentação que abriu a Computex, Huang destacou uma nova fase da empresa.

A Nvidia não é mais apenas uma fornecedora de chips gráficos para jogos. Agora, ela lidera o fornecimento de sistemas completos para computação de IA.

Entre os anúncios, estava o RTX Pro Server. Esse novo servidor oferece desempenho até quatro vezes maior que o H100.

Isso é especialmente útil em tarefas complexas, como o treinamento de modelos de linguagem.

O equipamento já está em produção e será usado por empresas como Meta e outras grandes tecnológicas.

Huang atualizou o cronograma dos novos chips GB300. Eles devem ser lançados no terceiro trimestre deste ano.

A linha vai substituir os sistemas Grace Blackwell. Esses sistemas foram instalados recentemente por provedores de nuvem.

A Nvidia quer se manter como referência em um setor competitivo. Após o crescimento da IA em 2022 com o ChatGPT, empresas como Amazon, Microsoft e Google criaram seus próprios chips. Por isso, ampliar seu leque de soluções e parceiros é essencial.

Infraestrutura para datacenters

A empresa também lançou o DGX Cloud Lepton. Essa é uma nova plataforma de software para provedores de nuvem.

O serviço vai ajudar empresas a ligar desenvolvedores de IA aos recursos de computação. Assim, eles poderão rodar seus modelos em grande escala.

Um ponto importante foi o fortalecimento das estações menores, como os modelos Spark e Station.

Os modelos são feitos para pesquisadores e pequenas empresas. Acer, Gigabyte, Dell, e HP prometeram entregar os equipamentos ainda este ano.

A Nvidia, com as ferramentas do Omniverse, ajuda fábricas como a TSMC a ‘criar gêmeos’ digitais. Esses modelos são réplicas virtuais de fábricas. Eles aceleram ajustes e modernizações em ambientes de produção.

A empresa também anunciou que irá oferecer projetos e suporte técnico. Isso servirá para empresas que querem criar suas próprias “fábricas de IA.” Essas fábricas são datacenters voltados para aplicações de inteligência artificial.

Fonte: Exame

Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *