ibm-granite

07/03/2025

IBM expande a família de modelos Granite com nova IA multimodal

E de raciocínio desenvolvida para empresas. Todos os modelos Granite 3.2 estão disponíveis sob a licença Apache 2.0 no Hugging Face. Granite 3.2 – pequenos modelos de IA que oferecem recursos de raciocínio, visão e proteção com uma licença amigável ao desenvolvedor. Modelos da série Granite atualizados oferecem previsões de longo alcance com menos de dez milhões de parâmetros.

A IBM (Nyse: IBM) lançou a próxima geração de sua família de modelos de linguagem (LLM) Granite, Granite 3.2, em um esforço contínuo para fornecer uma IA para negócios pequena, eficiente e prática que gere impacto no mundo real.

Todos os modelos Granite 3.2 estão disponíveis sob a licença Apache 2.0 no Hugging Face. Modelos selecionados estão disponíveis no IBM watsonx.ai, Ollama, Replicate e LM Studio, e são esperados em breve no RHEL AI 1.5 – trazendo recursos avançados para empresas e para a comunidade de código aberto. Os destaques incluem:

Um novo modelo de linguagem de visão (VLM), para tarefas de compreensão de documentos, que demonstra desempenho que corresponde ou excede o de modelos significativamente maiores – Llama 3.2 11B e Pixtral 12B – nos benchmarks empresariais essenciais DocVQA, ChartQA, AI2D e OCRBenc[1] Além de dados de treinamento robustos, a IBM usou seu próprio kit de ferramentas Docling de código aberto para processar 85 milhões de PDFs e gerou 26 milhões de pares sintéticos de perguntas e respostas para aprimorar a capacidade do VLM de lidar com fluxos de trabalho complexos e pesados em documentos.

Funções de cadeia de pensamento para raciocínio aprimorado nos modelos 2 2B e 8B, com a capacidade de ativar ou desativar o raciocínio para ajudar a otimizar a eficiência. Com esse recurso, o modelo 8B alcança melhorias de dois dígitos em relação ao seu antecessor em benchmarks de acompanhamento de instruções como ArenaHard e Alpaca Eval, sem degradação da segurança ou do desempenho em outros lugares[2]. Além disso, com o uso de novos métodos de dimensionamento de inferência, o modelo Granite 3.2 8B pode ser calibrado para rivalizar com o desempenho de modelos muito maiores, como Claude3.5-Sonnet ou GPT-4o em benchmarks de raciocínio matemático, como AIME2024 e MATH500.[3]

Opções de tamanho reduzido para modelos de segurança Granite Guardian que mantêm o desempenho dos modelos anteriores Granite 3.1 Guardian com redução de 30% no tamanho. Os modelos 3.2 também introduzem um novo recurso chamado confiança verbalizada, que oferece uma avaliação de risco mais detalhada que reconhece a ambiguidade no monitoramento de segurança.

A estratégia da IBM de fornecer modelos de IA menores e especializados para empresas continua a demonstrar eficácia em testes, com o modelo Granite 3.1 8B recentemente rendendo altas notas em precisão no Salesforce LLM Benchmark para CRM.

A família Granite Model é apoiada por um ecossistema robusto de parceiros, incluindo empresas líderes de software que incorporam modelos Granite em suas tecnologias.

—No CrushBank, vimos em primeira mão como os modelos de IA abertos e eficientes da IBM oferecem valor real para a IA empresarial, oferecendo o equilíbrio certo entre desempenho, custo-benefício e escalabilidade— disse David Tan, CTO do CrushBank. —O Granite 3.2 vai além com novos recursos de raciocínio, e estamos animados para explorá-los na construção de novas soluções de agente—.

O Granite 3.2 é um passo importante na evolução do portfólio e da estratégia da IBM para fornecer IA pequena e prática para empresas. Embora as abordagens de “cadeia de pensamento” para raciocínio sejam poderosas, elas exigem poder de computação substancial que não é necessário para todas as tarefas. É por isso que a IBM introduziu a capacidade de ativar ou desativar a cadeia de pensamento programaticamente. Para tarefas mais simples, o modelo opera sem raciocínio, para reduzir sobrecarga computacional desnecessária. Além disso, outras técnicas de raciocínio, como escala de inferência, mostraram que o modelo Granite 8B pode igualar ou exceder o desempenho de modelos muito maiores em benchmarks de raciocínio matemático padrão. A evolução de métodos como o dimensionamento de inferência continua sendo uma área de foco fundamental para as equipes de pesquisa da IBM.

Junto com os modelos de instrução, visão e guarda-corpo do Granite 3.2, a IBM está lançando a próxima geração de seus modelos TinyTimeMixers (TTM) (parâmetros abaixo de dez milhões), com recursos para previsões de longo prazo de até dois anos no futuro. Elas constituem ferramentas poderosas na análise de tendências de longo prazo, incluindo tendências financeiras e econômicas, previsão de demanda da cadeia de suprimentos e planejamento de estoque sazonal no varejo.

—A próxima era da IA é sobre eficiência, integração e impacto no mundo real – onde as empresas podem alcançar resultados poderosos sem gastos excessivos em computação—disse Sriram Raghavan, VP da IBM AI Research. —Os últimos desenvolvimentos do Granite da IBM focam em soluções abertas demonstrando outro passo à frente para tornar a IA mais acessível, econômica e valiosa para empresas modernas—.