Multiverse Computing ha presentato una tecnologia destinata a segnare un punto di svolta nell’evoluzione dell’intelligenza artificiale: CompactifAI. Questo innovativo approccio consente di ridurre drasticamente le dimensioni dei modelli linguistici di grandi dimensioni (LLM) senza alcuna perdita in termini di accuratezza o performance. Il risultato? Modelli fino a 12 volte più veloci, con un taglio dei costi di inferenza del 50%-80%. Un’ottimizzazione che rende l’adozione dell’AI molto più accessibile e sostenibile.
ANALISI
CompactifAI: Multiverse Computing offre un’AI più leggera, efficiente e accessibile
Si tratta di una tecnologia che comprime i Large Language Model riducendo fino all’80% i costi di inferenza senza comprometterne la precisione. Basata su reti tensoriali ispirate alla fisica quantistica, rende l’AI più sostenibile, veloce e utilizzabile su ogni dispositivo. Un’innovazione che promette di trasformare il panorama globale dell’intelligenza artificiale

Continua a leggere questo articolo
Canali