AI Workbench da Nvidia traz ótimo modelo
Programada para coincidir com a SIGGRAPH, a conferência acadêmica anual de IA, a Nvidia anunciou esta manhã uma nova plataforma projetada para permitir que os usuários criem, testem e personalizem modelos generativos de IA em um PC ou estação de trabalho antes de escalá-los para um data center e nuvem pública.
“Para democratizar esta capacidade, temos que tornar possível a execução em praticamente qualquer lugar”, disse o fundador e CEO da Nvidia, Jensen Huang, durante uma palestra no evento.
Chamado de AI Workbench, o serviço pode ser acessado por meio de uma interface básica executada em uma estação de trabalho local. Usando-o, os desenvolvedores podem ajustar e testar modelos de repositórios populares como Hugging Face e GitHub usando dados proprietários, e podem acessar recursos de computação em nuvem quando surgir a necessidade de escalar.
Manuvir Das, vice-presidente de computação empresarial da Nvidia, diz que o ímpeto para o AI Workbench foi o desafio – e a natureza demorada – de personalizar grandes modelos de IA. Os projetos de IA em escala empresarial podem exigir a busca em vários repositórios da estrutura e das ferramentas certas, um processo ainda mais complicado quando os projetos precisam ser movidos de uma infraestrutura para outra.
Certamente, a taxa de sucesso no lançamento de modelos empresariais em produção é baixa. De acordo com uma pesquisa da KDnuggets, plataforma de ciência de dados e análise de negócios, a maioria dos cientistas de dados entrevistados afirma que 80% ou mais de seus projetos param antes de implantar um modelo de aprendizado de máquina. Uma estimativa separada da Gartner sugere que cerca de 85% dos projetos de big data falham, em parte devido a obstáculos infraestruturais.
“Empresas em todo o mundo estão correndo para encontrar a infraestrutura certa e construir modelos e aplicações generativas de IA”, disse Das em comunicado. “O Nvidia AI Workbench fornece um caminho simplificado para equipes interorganizacionais criarem aplicativos baseados em IA que estão se tornando cada vez mais essenciais nos negócios modernos.”
O júri decidiu quão “simplificado” é o caminho. Mas, segundo Das, o AI Workbench permite que os desenvolvedores reúnam modelos, estruturas, SDKs e bibliotecas, incluindo bibliotecas para preparação e visualização de dados, de recursos de código aberto em um espaço de trabalho unificado.
À medida que a demanda por IA — especialmente IA generativa — cresce, tem havido um influxo de ferramentas focadas no ajuste fino de modelos grandes e gerais para casos de uso específicos. Startups como Fixie, Reka e Together visam tornar mais fácil para empresas e desenvolvedores individuais personalizarem modelos de acordo com suas necessidades, sem ter que pagar por computação em nuvem dispendiosa.
Com o AI Workbench, a Nvidia está lançando uma abordagem mais descentralizada para o ajuste fino – que acontece em uma máquina local em oposição a um serviço em nuvem. Isso faz sentido, dado que a Nvidia e seu portfólio de produtos de GPUs de aceleração de IA podem se beneficiar; A Nvidia faz menções não tão sutis à sua linha RTX no comunicado à imprensa anunciando a notícia. Mas deixando de lado as motivações comerciais da Nvidia, a proposta pode agradar aos desenvolvedores que não desejam ficar presos a uma única nuvem ou serviço para experimentação de modelos de IA.
A demanda por GPUs impulsionada pela IA impulsionou os ganhos da Nvidia a novos patamares. Em maio, a capitalização de mercado da empresa atingiu brevemente US$ 1 trilhão depois que a Nvidia relatou receitas de US$ 7,19 bilhões, um aumento de 19% em relação ao trimestre fiscal anterior.