Intel e Google estreitam colaboração para impulsionar infraestrutura de IA

futuristic digital technology.

Processadores Intel® Xeon® continuarão a alimentar a infraestrutura do Google Cloud em cargas de trabalho de IA, inferência e uso geral.

Novidades: A Intel Corporation (NASDAQ: INTC) e o Google anunciaram hoje uma colaboração multianual para avançar a próxima geração de infraestrutura de IA e nuvem, reforçando o papel crítico das CPUs e das Unidades de Processamento de Infraestrutura (IPUs) personalizadas na escala de sistemas de IA modernos e heterogêneos.

Com a aceleração da adoção da IA, a infraestrutura está se tornando mais complexa e heterogênea, aumentando a dependência de CPUs para orquestração, processamento de dados e desempenho em nível de sistema. Por meio dessa colaboração, Intel e Google alinharão diversas gerações de processadores Intel® Xeon® para melhorar o desempenho, a eficiência energética e o custo total de propriedade em toda a infraestrutura global do Google.

A inteligência artificial não funciona apenas com aceleradores — ela funciona com sistemas. E as CPUs são o núcleo desses sistemas.

O Google Cloud continua a implementar processadores Intel Xeon em suas instâncias otimizadas para cargas de trabalho, incluindo os mais recentes processadores Intel Xeon 6 que equipam as instâncias C4 e N4. Essas plataformas suportam uma ampla gama de cargas de trabalho — desde a coordenação de treinamento de IA em larga escala até inferência sensível à latência e computação de propósito geral.

Em paralelo, a Intel e o Google estão expandindo o codesenvolvimento de IPUs baseadas em ASIC customizados. Esses aceleradores programáveis descarregam funções de rede, armazenamento e segurança das CPUs hospedeiras, melhorando a utilização, aumentando a eficiência e permitindo um desempenho mais previsível em ambientes de IA de hiperescala.

As Unidades de Processamento Integrado (IPUs) são um componente crítico das arquiteturas de data center modernas. Ao lidar com tarefas de infraestrutura tradicionalmente gerenciadas por CPUs, elas liberam maior capacidade computacional efetiva e permitem que os provedores de nuvem escalem com mais eficiência sem aumentar a complexidade geral do sistema. Juntas, as CPUs Xeon e as IPUs formam uma plataforma altamente integrada que equilibra computação de propósito geral com aceleração de infraestrutura específica para fornecer sistemas de IA mais eficientes, flexíveis e escaláveis.

Aumentando o desempenho e a eficiência em grande escala:

“A IA está remodelando a forma como a infraestrutura é construída e dimensionada. Escalar a IA exige mais do que aceleradores – exige sistemas equilibrados. CPUs e IPUs são essenciais para fornecer o desempenho, a eficiência e a flexibilidade que as cargas de trabalho de IA modernas exigem.”
- Lip-Bu Tan, CEO da Intel.

 

“As CPUs e a aceleração da infraestrutura continuam sendo a base dos sistemas de IA — desde a orquestração do treinamento até a inferência e a implantação. A Intel tem sido uma parceira confiável por quase duas décadas, e seu roteiro para o Xeon nos dá a segurança de que podemos continuar atendendo às crescentes demandas de desempenho e eficiência de nossas cargas de trabalho.”
- Amin Vahdat, vice-presidente sênior e diretor de tecnologia de infraestrutura de IA do Google.

Construindo as bases para a próxima onda de IA: A expansão da colaboração reflete um compromisso compartilhado com o avanço de uma infraestrutura aberta e escalável para a era da IA. Ao combinar a computação de uso geral com a aceleração de infraestrutura dedicada, a Intel e o Google estão permitindo uma abordagem mais equilibrada para o design de sistemas de IA — uma que melhora a utilização, reduz a complexidade e escala de forma mais eficiente.

Juntas, as empresas estão fortalecendo as bases para a próxima geração de serviços em nuvem orientados por IA, apoiando a inovação contínua em empresas, desenvolvedores e usuários em todo o mundo.