Meta aposta alto em IA com chips customizados

blog

LarLar / blog / Meta aposta alto em IA com chips customizados

May 13, 2023

Meta aposta alto em IA com chips customizados

Em evento virtual nesta manhã, a Meta abriu as cortinas de seus esforços para

Em um evento virtual esta manhã, a Meta levantou as cortinas de seus esforços para desenvolver infraestrutura interna para cargas de trabalho de IA, incluindo IA generativa como o tipo que sustenta suas ferramentas de design e criação de anúncios lançadas recentemente.

Foi uma tentativa de projeção de força da Meta, que historicamente tem sido lenta em adotar sistemas de hardware compatíveis com IA - prejudicando sua capacidade de acompanhar rivais como Google e Microsoft.

"Construir nossos próprios recursos [de hardware] nos dá controle em todas as camadas da pilha, desde o design do datacenter até as estruturas de treinamento", disse Alexis Bjorlin, vice-presidente de infraestrutura da Meta, ao TechCrunch. "Esse nível de integração vertical é necessário para ultrapassar os limites da Pesquisa de IA em escala."

Na última década, a Meta gastou bilhões de dólares recrutando os principais cientistas de dados e construindo novos tipos de IA, incluindo IA que agora alimenta os mecanismos de descoberta, filtros de moderação e recomendações de anúncios encontrados em seus aplicativos e serviços. Mas a empresa tem lutado para transformar muitas de suas inovações de pesquisa de IA mais ambiciosas em produtos, particularmente na frente de IA generativa.

Até 2022, a Meta executou amplamente suas cargas de trabalho de IA usando uma combinação de CPUs – que tendem a ser menos eficientes para esses tipos de tarefas do que GPUs – e um chip personalizado projetado para acelerar algoritmos de IA. A Meta desligou um lançamento em larga escala do chip personalizado, planejado para 2022, e, em vez disso, fez pedidos de bilhões de dólares em GPUs Nvidia que exigiam grandes redesenhos de vários de seus data centers.

Em um esforço para mudar as coisas, a Meta fez planos para começar a desenvolver um chip interno mais ambicioso, com lançamento previsto para 2025, capaz de treinar modelos de IA e executá-los. E esse foi o tema principal da apresentação de hoje.

A Meta chama o novo chip de Meta Training and Inference Accelerator, ou MTIA, e o descreve como parte de uma "família" de chips para acelerar o treinamento de IA e as cargas de trabalho de inferência. ("Inferência" refere-se à execução de um modelo treinado.) O MTIA é um ASIC, uma espécie de chip que combina diferentes circuitos em uma placa, permitindo que seja programado para realizar uma ou várias tarefas em paralelo.

Um chip de IA Meta personalizado para cargas de trabalho de IA.Créditos da imagem:meta

"Para obter melhores níveis de eficiência e desempenho em nossas importantes cargas de trabalho, precisávamos de uma solução personalizada que fosse coprojetada com o modelo, a pilha de software e o hardware do sistema", continuou Bjorlin. "Isso fornece uma experiência melhor para nossos usuários em uma variedade de serviços."

Chips de IA personalizados são cada vez mais o nome do jogo entre os jogadores de Big Tech. O Google criou um processador, o TPU (abreviação de "tensor processing unit"), para treinar grandes sistemas generativos de IA como PaLM-2 e Imagen. A Amazon oferece chips proprietários para clientes da AWS tanto para treinamento (Trainium) quanto para inferência (Inferentia). E a Microsoft, supostamente, está trabalhando com a AMD para desenvolver um chip interno de IA chamado Athena.

A Meta diz que criou a primeira geração do MTIA - MTIA v1 - em 2020, construída em um processo de 7 nanômetros. Ele pode escalar além de seus 128 MB de memória interna para até 128 GB e, em um teste de benchmark projetado pela Meta - que, é claro, deve ser levado com um pouco de sal - a Meta afirma que o MTIA lidou com "baixa complexidade " e modelos de IA de "complexidade média" com mais eficiência do que uma GPU.

Ainda há trabalho a ser feito nas áreas de memória e rede do chip, diz Meta, que apresentam gargalos à medida que o tamanho dos modelos de IA cresce, exigindo que as cargas de trabalho sejam divididas em vários chips. (Não por coincidência, a Meta adquiriu recentemente uma tecnologia de rede de IA de construção de equipes com sede em Oslo no unicórnio britânico de chips Graphcore.) E, por enquanto, o foco do MTIA é estritamente na inferência - não no treinamento - para "cargas de trabalho de recomendação" na família de aplicativos da Meta.

Mas a Meta enfatizou que o MTIA, que continua a refinar, aumenta "muito" a eficiência da empresa em termos de desempenho por watt ao executar cargas de trabalho de recomendação - por sua vez, permitindo que a Meta execute "mais aprimorada" e "de ponta" (aparentemente) Cargas de trabalho de IA.