ANALISI

CompactifAI: Multiverse Computing offre un’AI più leggera, efficiente e accessibile



Indirizzo copiato

Si tratta di una tecnologia che comprime i Large Language Model riducendo fino all’80% i costi di inferenza senza comprometterne la precisione. Basata su reti tensoriali ispirate alla fisica quantistica, rende l’AI più sostenibile, veloce e utilizzabile su ogni dispositivo. Un’innovazione che promette di trasformare il panorama globale dell’intelligenza artificiale

Pubblicato il 23 giu 2025



Multiverse Computing CompactifAI
Enrique Lizaso, Sam Mugel, Roman Orus

Multiverse Computing ha presentato una tecnologia destinata a segnare un punto di svolta nell’evoluzione dell’intelligenza artificiale: CompactifAI. Questo innovativo approccio consente di ridurre drasticamente le dimensioni dei modelli linguistici di grandi dimensioni (LLM) senza alcuna perdita in termini di accuratezza o performance. Il risultato? Modelli fino a 12 volte più veloci, con un taglio dei costi di inferenza del 50%-80%. Un’ottimizzazione che rende l’adozione dell’AI molto più accessibile e sostenibile.

Continua a leggere questo articolo

Articoli correlati