Lemurian Labs está construindo um novo paradigma de computação para reduzir o dispêndio de realização de modelos de IA

PUBLICIDADE


PUBLICIDADE

É justo manifestar que a Nvidia se encontrou no lugar manifesto, na hora certa, com a demanda por seus chips GPU em subida, graças às demandas de recursos dos modelos generativos de IA, mas e se houvesse um chip que fornecesse potência semelhante? a um dispêndio menor? É isso que o Lemurian Labs, uma startup em estágio inicial de ex-alunos do Google, Intel e Nvidia, está tentando edificar.

Com certeza, é uma espécie de teoria lunar, e leva muito tempo e moeda para colocar uma teoria de chip no mercado, mas é o tipo de teoria quando vem de fundadores com um manifesto pedigree que os investidores estão dispostos a admitir. chance. Hoje, a startup anunciou um investimento inicial de US$ 9 milhões.

PUBLICIDADE

“Fundamentalmente, na Lemurian, nosso objetivo é reimaginar a computação acelerada. E a razão pela qual queremos fazer isso é porque a forma uma vez que fazemos computação está começando a chegar ao termo. E não é que não seja uma grande arquitetura ou paradigma, é que a física dos semicondutores está resistindo a esse paradigma”, disse Jay Dawani, cofundador e CEO da Lemurian, ao TechCrunch.

O objetivo da empresa é edificar um novo chip junto com software para tornar o processamento de cargas de trabalho de IA mais conseguível, eficiente, mais barato e, em última estudo, mais ecologicamente correto.

Uma vez que se estivesse dando uma lição magistral em arquitetura de computadores, Lemurian explica que a computação se resume a três coisas: “Há matemática, há memória e depois há movimento. O objetivo são interconexões. Assim, os dados são armazenados em memórias que são movidos através de uma interconexão para uma unidade matemática onde são manipulados e depois gravados de volta na memória. Logo esse é o ponto tradicional da arquitetura: os dados precisam viajar”, ​​explicou Dawani.

PUBLICIDADE

Lemurian quer mudar essa abordagem. Em vez de fazer com que os dados viajem para os recursos de computação, ele deseja que a computação se mova para os dados. “O que estamos dizendo é que precisamos essencialmente minimizar essa intervalo, para que não estejamos realmente movendo dados, mas sim movimentando computação”, disse ele.

Ele diz que as GPUs foram criadas essencialmente para tarefas relacionadas a gráficos, mas com o tempo assumiram uma variedade de outras funções devido às suas capacidades puras de processamento. “Porque você está projetando para alguma coisa, mas também tentando fazer outra coisa, e quando você está tentando fazer tudo, você não é tão bom em fazer tudo. E esse é realmente o calcanhar de Aquiles de uma GPU. E é isso que estamos tentando consertar”, disse Dawani.

A maneira uma vez que Lemurian quer responder a isso é mudando a matemática do chip, um grande empreendimento, sem incerteza. Uma vez que conta Dawani, nos primeiros dias do desenvolvimento do chip, os engenheiros tomaram a decisão de adotar uma abordagem de ponto flutuante porque ninguém conseguia fazer uma abordagem logarítmica funcionar. Ele afirma que sua empresa resolveu esse problema.

“E a formosura de um sistema de numeração de log é que ele transforma todas aquelas multiplicações e divisões caras em adições e subtrações, que são operações muito gratuitas em hardware. Assim você economiza superfície e vigor e ganha velocidade. E você também ganha um pouco em exatidão ou precisão”, o que é bastante interessante quando se tenta reduzir o dispêndio de processamento em grandes modelos de linguagem.

Uma vez que eles fizeram isso? “Na verdade, nos deparamos com a percepção de que, ao edificar de uma certa maneira e estender a definição de um sistema numérico grande, você pode realmente fabricar uma solução exata, que acaba sendo menor e mais precisa do que o ponto flutuante para o mesmo número de bits. ,” ele disse.

“E à medida que você aumenta o número de bits, a filete dinâmica fica cada vez melhor para o mesmo número de bits, o que é realmente fascinante. Agora, isso é uma grande segmento do que nos permite explorar a arquitetura que fizemos, porque sem o sistema numérico você sucumbe às mesmas limitações.”

Eles estão adotando uma abordagem lenta, lançando primeiro a segmento de software da rima, que esperam ter disponível no terceiro trimestre do próximo ano. O hardware é muito mais provocador e levará tempo e moeda para ser desenvolvido, fabricado e testado em produção, mas a meta é que isso continue nos próximos anos.

A empresa conta atualmente com 24 funcionários, em sua maioria engenheiros técnicos altamente qualificados e com experiência neste tipo de projeto. É um número restringido de pessoas, mas seu objetivo é contratar mais seis pessoas nos próximos meses e, se tudo passar muito e eles conseguirem uma Série A, mais 35 no próximo ano.

O investimento de US$ 9 milhões foi liderado pela Oval Park Capital com a participação da Good Growth Capital, Raptor Group e Alumni Ventures, entre outros.

Erigir uma empresa uma vez que esta e colocar o chip no mercado representa um repto enorme e custoso, mas se conseguirem realizar o que descrevem, isso poderá tornar a construção de modelos generativos de IA (e o que vier a seguir) muito mais barata e mais eficiente.

Pablo Oliveira
Pablo Oliveirahttp://pcextreme.com.br
Sou diretamente responsável pela manutenção, otimização, configuração e SEO de todos os sites de minha propriedade. Além disso, atuo como colunista, editor e programador.

Artigos relacionados

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Artigos recentes