Llama Nemotron Nvidia
– Nvidia

A Nvidia anunciou a família aberta de modelos Llama Nemotron com recursos de lógica, projetada para fornecer aos desenvolvedores e empresas uma base pronta para negócios destinada à criação de agentes de IA avançados capazes de trabalhar de forma independente ou como equipes conectadas para resolver tarefas complexas.

Construída sobre os modelos Llama, a família de modelos de raciocínio Llama Nemotron da Nvidia oferece capacidades de raciocínio sob demanda. A Nvidia aprimorou essa nova família de modelos de raciocínio durante o pós-treinamento para melhorar a matemática de múltiplos passos, codificação, raciocínio e tomada de decisões complexas.

Este processo de refinamento aumenta a precisão dos modelos em até 20% em comparação com o modelo base e otimiza a velocidade de inferência em 5x em comparação com outros modelos líderes de raciocínio aberto. As melhorias no desempenho da inferência significam que os modelos podem lidar com tarefas de raciocínio mais complexas, aprimorar as capacidades de tomada de decisão e reduzir os custos operacionais para as empresas.

Os principais pioneiros da plataforma de agentes de IA estão colaborando com a NVIDIA em seus novos modelos de raciocínio e software, incluindo Accenture, Amdocs, Atlassian, Box, Cadence, CrowdStrike, Deloitte, IQVIA, Microsoft, SAP e ServiceNow.

“O raciocínio e a adoção dos agentes de IA são incríveis”, disse Jensen Huang, fundador e CEO da NVIDIA. “Os modelos de raciocínio aberto, software e ferramentas da NVIDIA dão aos desenvolvedores e empresas em todos os lugares os blocos de construção para criar uma força de trabalho de agentes de IA acelerada".

Pós-treinamento aumenta a precisão e a confiabilidade para a lógica empresarial

Desenvolvido para fornecer raciocínio de IA pronto para produção, a família de modelos Llama Nemotron está disponível como microsserviços NVIDIA NIM™ nos tamanhos Nano, Super e Ultra — cada um otimizado para diferentes necessidades de implantação.

O modelo Nano oferece a mais alta precisão em PCs e dispositivos de ponta, o modelo Super oferece a melhor precisão e maior rendimento em uma única GPU e o modelo Ultra fornecerá a máxima precisão de agente em servidores com várias GPUs.

A NVIDIA conduziu o pós-treinamento no NVIDIA DGX™ Cloud usando dados sintéticos selecionados de alta qualidade gerados pelo NVIDIA Nemotron™ e outros modelos abertos, bem como conjuntos de dados selecionados adicionais cocriados pela NVIDIA.

As ferramentas, conjuntos de dados e técnicas de otimização pós-treinamento usados para desenvolver os modelos estarão disponíveis abertamente, dando às empresas a flexibilidade de criar seus próprios modelos de raciocínio personalizados.

Disponibilidade

Os modelos NVIDIA Llama Nemotron Nano e Super e os microsserviços NIM estão disponíveis como uma interface de programação de aplicativo hospedada em build.nvidia.com e Hugging Face. O acesso para desenvolvimento, teste e pesquisa é gratuito para membros do NVIDIA Developer Program.

As empresas podem executar microsserviços Llama Nemotron NIM em produção com NVIDIA AI Enterprise em data center acelerado e infraestrutura de nuvem. Os desenvolvedores podem se inscrever para serem notificados quando os microsserviços NVIDIA NeMo estiverem disponíveis publicamente.

O NVIDIA AI-Q Blueprint deve estar disponível em abril. O kit de ferramentas NVIDIA AgentIQ está disponível agora no GitHub.