tech leader

Infrastrutture dati per AI: le sfide secondo Charles Giancarlo, CEO di Pure Storage



Indirizzo copiato

La crescita dell’AI generativa sta trasformando le infrastrutture dati per AI e ridefinendo priorità come performance, unificazione del dato ed efficienza energetica. Le dichiarazioni del CEO di Pure Storage evidenziano trend che influenzano aziende e hyperscaler nel 2025

Pubblicato il 27 nov 2025



infrastrutture_dati_per_ai_techcompany360

Negli ultimi mesi il tema delle infrastrutture dati per AI è diventato centrale nel dibattito tecnologico, spinto dalla crescita dei modelli generativi e dalla necessità di gestire volumi e velocità di dati senza precedenti. Uno dei punti di vista più approfonditi arriva da Charles Giancarlo, CEO di Pure Storage, che in un’intervista con CNBC ha descritto come le trasformazioni in corso nel settore dello storage stiano ridisegnando sia le architetture aziendali sia le strategie di investimento di hyperscaler e imprese. Le sue dichiarazioni consentono di cogliere alcune dinamiche attuali nella transizione verso ambienti più flessibili, performanti ed energeticamente sostenibili.

Il ruolo dello storage nella nuova infrastrutture dati per AI

Secondo Giancarlo, la domanda di capacità di storage ad alte prestazioni è cresciuta in modo significativo perché l’AI ha cambiato il modo in cui le aziende osservano e valutano il proprio patrimonio informativo. La maggiore pressione esercitata da modelli sempre più complessi ha fatto emergere la natura altamente frammentata dei dati presenti nelle organizzazioni. Giancarlo spiega che molte imprese oggi si trovano con asset eterogenei, distribuiti in ambienti diversi e spesso difficili da orchestrare in maniera coerente, soprattutto quando l’obiettivo è alimentare pipeline di analisi o inferenza avanzata. L’AI, afferma, ha costretto le aziende a «ripensare la loro architettura interna» proprio perché la qualità e la disponibilità del dato stanno diventando fattori abilitanti fondamentali.

La frammentazione rimane uno degli ostacoli principali all’adozione efficace dell’AI. Giancarlo sottolinea come le imprese si stiano rendendo conto che l’attuale configurazione dei dati, costruita negli anni su esigenze contingenti e stratificazioni tecnologiche, non è ideale per un utilizzo intensivo dell’intelligenza artificiale. La difficoltà non è solo di natura organizzativa, ma influisce direttamente sulla capacità di estrarre valore: senza uno spazio logico unificato, infatti, modelli di training e sistemi di inferenza incontrano limiti in termini di latenza, scalabilità e affidabilità.

Energia, consumi e densità: l’impatto dello storage nella crescita dell’AI

Power & cooling come nuova metrica competitiva

Nell’intervista, Giancarlo evidenzia come negli ambienti hyperscale – dove si concentrano gran parte delle attività di training dei modelli avanzati – la questione energetica sia diventata centrale. Pure Storage, operando esclusivamente con soluzioni flash, sostiene di poter contribuire alla riduzione dello spazio fisico, dell’alimentazione necessaria e del raffreddamento. In particolare, Giancarlo afferma che «la capacità di utilizzare meno energia per lo storage e quindi di poter utilizzare più energia per cose come l’AI diventa molto interessante». Per gli hyperscaler, spesso vincolati da limiti di potenza nelle aree in cui costruiscono i data center, la possibilità di ottimizzare il consumo energetico dello storage è un fattore strategico.

L’evoluzione del mercato hyperscale

Pure Storage vende tradizionalmente alle imprese, ma l’attenzione al mercato hyperscale si è intensificata solo negli anni più recenti. Giancarlo ricorda che la società ha riconosciuto le prime entrate nel settore hyperscale proprio nel trimestre precedente all’intervista, segno di una domanda emergente. La combinazione fra crescita dei workload AI, limiti energetici e necessità di infrastrutture più dense sta aprendo nuove opportunità per tecnologie storage progettate per ridurre i consumi e aumentare l’efficienza.

Prestazioni e latenza: perché lo storage è decisivo per l’intelligenza artificiale

Giancarlo è molto chiaro sulla centralità della performance: «le prestazioni sono tutto in un ambiente di AI». I modelli generativi richiedono enormi quantità di dati e devono accedervi con latenza estremamente bassa. Un collo di bottiglia nello storage può rallentare l’intero sistema, sia in fase di training sia in fase di inferenza, con impatti diretti sulla qualità e sui tempi di risposta dei modelli. Lo storage diventa così un elemento determinante delle infrastrutture dati per AI, contribuendo alla capacità di gestire flussi continui e intensivi.

Geografie della domanda: il predominio nordamericano

Secondo Giancarlo, l’adozione dell’AI è particolarmente concentrata nel Nord America, che descrive come «di gran lunga il più avanzato nello spazio dell’AI». Stima che l’80-90% degli investimenti osservati provenga da quell’area, mentre cresce l’interesse di nazioni sovrane in Medio Oriente e nell’Estremo Oriente, soprattutto per rafforzare le proprie capacità domestiche. Questo sbilanciamento geografico riflette sia la maturità tecnologica del mercato statunitense sia il ruolo che grandi piattaforme cloud e hyperscaler hanno nel definire lo standard dell’ecosistema AI.

Stabilità macroeconomica e segnali di investimento

Giancarlo ricorda che, a inizio 2025, economisti e istituti finanziari prevedevano la possibilità di una recessione nella seconda metà dell’anno. La situazione, però, ha seguito una traiettoria diversa. «Abbiamo avuto trimestri forti», afferma, evidenziando come l’azienda stia osservando «forti segnali di acquisto». Il quadro suggerisce che la domanda di soluzioni dati e infrastrutture capaci di supportare l’AI abbia mantenuto una certa resilienza, spinta dall’urgenza delle imprese di rinnovare ambienti e architetture.

Articoli correlati