São Paulo – A ServiceNow acaba de anunciar um acordo multianual com a OpenAI que promete mudar a forma como solicitações, chamados e fluxos de trabalho corporativos são tratados: em vez de cliques, a interação poderá ocorrer de forma natural, “fala-a-fala”, em qualquer idioma. A novidade integra os modelos mais recentes da OpenAI – incluindo o GPT-5.2, quando chegar – diretamente à Now Platform, adicionando uma camada de automação generativa a processos críticos de TI, RH, finanças e atendimento ao cliente.
Por que a parceria surge neste momento?
Segundo John Aisien, vice-presidente de produto da ServiceNow, o impulso veio de dois vetores: demanda dos clientes e a curva de evolução acelerada dos modelos de IA. As empresas não querem mais “experimentar” inteligência artificial; elas querem colocá-la em produção, de forma segura e mensurável, sem se preocupar em ajustar o modelo a cada novo release.
Arquitetura híbrida: o melhor de dois mundos
A ServiceNow continuará oferecendo seus próprios Large Language Models (LLMs) otimizados para fluxo de trabalho, mas agora dará às organizações a liberdade de escolher também os “frontier models” da OpenAI. Para Scott Bickley, analista da Info-Tech Research Group, essa abordagem híbrida é crucial, pois nenhum único modelo entrega excelência em todos os cenários. Modelos proprietários servem para casos sensíveis, com forte necessidade de governança; modelos públicos trazem velocidade de inovação e menor custo de manutenção.
Vantagens concretas para CIOs e líderes de TI
• Redução de custos: quem já tem contrato ou estratégia baseada na OpenAI pode evitar integrações externas caras.
• Menos “sprawl” de modelos: em vez de manter vários provedores, a empresa controla tudo na AI Control Tower da ServiceNow.
• Produtividade real: a IA deixa de apenas resumir tickets e passa a abrir chamados, aprovar solicitações e escalar incidentes por voz, elevando o nível de autonomia dos agentes virtuais.
Do software à infraestrutura: e o hardware entra onde?
Por trás de toda essa sofisticação há um detalhe que interessa aos entusiastas de tecnologia (e aos orçamentos de TI): poder de processamento gráfico. Modelos da categoria GPT-5.2 exigem clusters de GPUs robustos, como as NVIDIA H100 – que, aliás, também equipam workstations voltadas a criadores de conteúdo e gamers extremos. Para empresas que hospedam suas próprias instâncias ou fazem fine-tuning, investir em placas-mãe compatíveis com PCIe 5.0, fontes de alta eficiência e sistemas de resfriamento líquido pode fazer toda a diferença na hora de diminuir latência e custos operacionais.
Imagem: Paul Barker
O que observar nos próximos meses
1. Agentes multimodais: voz, texto e imagem trabalhando juntos no Now Assist.
2. Novos SKUs de nuvem: pacotes de consumo de IA sob demanda, com métricas de uso mais transparentes.
3. Concorrência aquecida: SAP, Oracle e Salesforce já correm para integrar modelos da Anthropic e da própria OpenAI. A disputa deve acelerar preços e inovações em 2024.
No fim das contas, a ServiceNow deixa claro que seu diferencial não é “ser dona” do modelo mais inteligente, mas sim orquestrar workflows, permissões e governança em escala global. Para os CIOs, a mensagem é direta: a estratégia vencedora não será de “um modelo para tudo”, e sim de camadas de IA que combinem velocidade, contexto e segurança.
Com informações de Computerworld