Tech

Aceleração de Modelos de Linguagem: Inovação da Intel e do Instituto Weizmann

Intel e Instituto Weizmann apresentam técnica inovadora que potencia a velocidade de inferência dos modelos de linguagem em até 2,8 vezes sem sacrificar a precisão.

há 4 horas
Aceleração de Modelos de Linguagem: Inovação da Intel e do Instituto Weizmann

A Intel, em colaboração com o Instituto Weizmann de Ciência, anunciou um novo método que promete revolucionar a gestão de algoritmos de inteligência artificial (IA), permitindo um aumento significativo na velocidade de inferência de modelos de linguagem de grande dimensão (LLM) em até 2,8 vezes.

Este avanço é alcançado através da otimização da descodificação especulativa, uma técnica que visa tornar os modelos de aprendizagem profunda (DLM) mais rápidos e eficazes ao responder a pedidos, mantendo a precisão das respostas intacta.

A técnica combina um modelo mais simples e ágil, que gera as respostas iniciais, com um modelo maior e mais preciso, que realiza a verificação e a validação das mesmas. No entanto, podem surgir complicações quando há diferenças significativas nos vocabulários utilizados.

Os investigadores desenvolveram um novo procedimento que melhora a velocidade de inferência dos LLM, tornando a descodificação especulativa mais acessível em contextos com modelos heterogéneos.

De acordo com a Intel, esta inovação assegura que qualquer modelo de rascunho, mesmo que simples, pode efetuar uma aceleração de desempenho em qualquer LLM, independentemente das variações nos vocabulários.

A empresa destacou que esta nova abordagem corrige uma "ineficiência fundamental” presente na IA generativa, como foi apresentado num comunicado, que ressalta a compatibilidade do método com modelos de diferentes programadores e ecossistemas.

O método é fundamentado em três novos algoritmos que "desvinculam a codificação especulativa do alinhamento de vocabulário", facilitando uma implementação flexível dos LLM. Este sistema permite a combinação eficiente de qualquer modelo de pequeno porte com modelos mais robustos, otimizando tanto a velocidade como os custos de inferência.

#InteligenciaArtificial #InovacaoTecnologica #ModelosDeLinguagem