Compactifai ile şirket, LLM boyutlarını yüzde 95’e kadar düşürüyor-maliyetleri düşürüyor, hızı artırıyor ve cihazdaki AI’nın kilidini açıyor.
Kuantumdan ilham alan AI Model Sıkıştırma Şirketi Multivese Computing, 189 milyon € ‘luk B.
Model performansını korurken LLM’lerin boyutunu yüzde 95’e kadar azaltabilen bir sıkıştırma teknolojisi olan Compactifai’yi geliştirdi.
LLM’ler genellikle veri merkezi maliyetlerini artıran özel, bulut tabanlı altyapı üzerinde çalışır. Geleneksel sıkıştırma teknikleri —quantizasyon ve budama – bu zorlukları ele almayı amaçlamaktadır, ancak sonuçta ortaya çıkan modeller orijinal LLM’leri önemli ölçüde azaltmaktadır.