tech leader

Data storage e AI: Charlie Giancarlo spiega la visione di Pure Storage



Indirizzo copiato

Il CEO di Pure Storage analizza il ruolo cruciale dei semiconduttori e della virtualizzazione nel superare i limiti dei dischi meccanici, trasformando i silos informativi in un’infrastruttura dati fluida e performante per l’intelligenza artificiale

Pubblicato il 28 gen 2026



data storage techcompany360

Il panorama tecnologico odierno è definito da una trasformazione strutturale che vede il data storage e l’AI come binomio inscindibile per l’evoluzione dei moderni data center. In un recente confronto tra Sriram Viswanathan, founding managing partner di Celesta Capital, e Charlie Giancarlo, Chairman e CEO di Pure Storage, è emerso chiaramente come l’archiviazione non sia più una semplice commodity, ma il terzo pilastro fondamentale dell’infrastruttura digitale.

Giancarlo, figura storica della Silicon Valley con un passato ai vertici di Cisco, ha delineato durante questa intervista per il podcast TechSurge il passaggio dai sistemi meccanici a quelli basati sui semiconduttori, spiegando come questa transizione stia riscrivendo le regole dell’efficienza energetica e delle prestazioni operative per le aziende globali.

La triade dell’infrastruttura: compute, networking e l’evoluzione del data storage

Secondo l’analisi di Giancarlo, ogni data center poggia su tre tecnologie core: l’infrastruttura di calcolo (compute), storicamente dominata dai processori Intel; l’ambiente di switching e networking, che permette la comunicazione tra macchine; e infine l’ambiente dei dati, ovvero il data storage. Mentre il calcolo segue la nota Legge di Moore e il networking si è evoluto secondo la Legge di Metcalfe — che Giancarlo descrive come una triplicazione delle performance ogni due anni — lo storage ha seguito per decenni una traiettoria diversa.

Il settore dell’archiviazione è stato a lungo dominato dai dischi rigidi meccanici (HDD), caratterizzati da un declino costante ma lineare del prezzo per bit. Tuttavia, l’avvento delle memorie Flash, basate sui semiconduttori, ha introdotto una pendenza più ripida nel rapporto prezzo-prestazioni, destinata a incrociare e superare quella dei dischi magnetici.

Giancarlo osserva che, sebbene le imprese abbiano già migrato circa il 50% dei propri dati su Flash, il mercato degli hyperscaler rimane ancora ancorato per il 90% ai dischi rigidi, rappresentando una delle più grandi opportunità di trasformazione infrastrutturale dei prossimi anni.

Dalla meccanica al software: il superamento dei limiti dell’SSD

Un punto centrale del dibattito tecnologico riguarda l’architettura stessa dei dispositivi Flash. Molti produttori hanno inizialmente sviluppato gli SSD (Solid State Drive) affinché “emulassero” il comportamento di un disco rigido, mantenendone form factor, connettori e software di gestione. Questo approccio ha facilitato l’adozione immediata perché non richiedeva modifiche ai sistemi operativi esistenti, ma ha creato un limite di efficienza. Giancarlo paragona questo processo a «rendere un microcomputer simile a una macchina da scrivere».

Per massimizzare il potenziale del data storage e dell’AI, Pure Storage ha scelto di operare direttamente sulla memoria Flash. Questa gestione diretta permette di ottenere vantaggi significativi:

  • miglioramento del rapporto prezzo-prestazioni stimato tra il 30% e il 40% rispetto ai sistemi tradizionali.
  • riduzione drastica dei tassi di guasto, che scendono a un decimo dell’1%, contro il 2-4% annuo dei dischi meccanici.
  • affidabilità garantita per un periodo di 10 anni.
  • occupazione di un decimo dello spazio, dell’energia e del raffreddamento rispetto a un sistema a disco meccanico.

Questi dati spiegano perché grandi attori come Meta abbiano selezionato questa tecnologia per il design dei loro data center di prossima generazione.

L’impatto dell’intelligenza artificiale e la sfida delle memorie HBM

L’esplosione dell’intelligenza artificiale ha generato una gerarchia economica precisa all’interno dei data center. Nvidia e le GPU dominano la scena, seguite dal networking (principalmente Ethernet) necessario a legare i sistemi tra loro. Inizialmente, il ruolo dello storage nell’AI è stato sottovalutato: Giancarlo stima che nel 2024 il mercato dello storage specifico per l’AI sia stato di circa 1,5 miliardi di dollari, una frazione contenuta in un mercato totale che oscilla tra i 50 e i 70 miliardi.

Tuttavia, lo storage sta diventando un fattore determinante per ottimizzare l’uso delle memorie HBM (High Bandwidth Memory), estremamente costose e integrate nelle GPU. «Più velocemente si riescono a fornire i dati da un sistema di storage meno costoso, meno memoria ad alta larghezza di banda (HBM) è necessaria» afferma Giancarlo.

Verso l’Enterprise Data Cloud: superare il modello a silos

Il futuro della gestione dei dati risiede nel concetto di Enterprise Data Cloud. Storicamente, le aziende hanno gestito lo storage attraverso sistemi isolati o “silos”, ognuno legato a specifiche applicazioni. Giancarlo propone una visione diversa: «Il cloud è un modo di operare, non una destinazione». L’obiettivo è permettere alle aziende di creare il proprio cloud di storage, dove i dati non sono legati a singoli array fisici ma sono virtualizzati e accessibili universalmente.

Questo approccio è particolarmente rilevante per l’inferenza dell’AI e il RAG (Retrieval Augmented Generation). Sebbene il training dei modelli sia prerogativa dei grandi Tech Titans, la maggior parte delle aziende si concentrerà sull’estrazione di insight dai propri dati storici e in tempo reale.

Attualmente, la frammentazione dei dati rappresenta l’ostacolo principale.

Virtualizzazione, container e strategie di mercato

L’integrazione di tecnologie di virtualizzazione avanzate come i container e Kubernetes è un altro tassello fondamentale. Attraverso l’acquisizione di Portworx, Pure Storage ha abilitato la scalabilità rapida delle applicazioni. Se un’applicazione containerizzata deve scalare, le connessioni allo storage devono avvenire in millisecondi. Giancarlo sostiene che «se vuoi che qualcosa sia virtualizzato sui container, vuoi anche che i tuoi dati siano virtualizzati, così da non essere vincolato dalla loro posizione fisica».

A livello competitivo, il mercato vede giganti come Dell, HP e NetApp scontrarsi in un settore che spesso viene trattato come una commodity. Giancarlo sottolinea una differenza netta negli investimenti in innovazione: mentre Pure Storage investe circa il 20% dei propri ricavi in ricerca e sviluppo (R&D), molti concorrenti si fermano a meno del 5%. Questa discrepanza deriva anche dal fatto che per molti produttori di server il business dello storage serve a sostenere i margini, mentre il compute è diventato un mercato a basso margine dominato dai produttori di semiconduttori.

Prospettive per i prossimi quattro anni

Il percorso evolutivo tracciato da Giancarlo prevede una trasformazione profonda del settore entro il 2030. La visione è quella di un’infrastruttura dove lo storage non è più un limite fisico ma un servizio fluido. «Credo che una frazione significativa dei principali hyperscaler utilizzerà la nostra tecnologia per sostituire il loro ambiente di storage esistente» ha dichiarato il CEO, sottolineando come la missione principale resti quella di aiutare le imprese a costruire il proprio Enterprise Data Cloud.

L’efficienza energetica giocherà un ruolo paritetico alle prestazioni pure: riducendo drasticamente l’impatto di spazio e calore, le aziende possono “restituire” fino al 20% della potenza elettrica del data center ad altre funzioni critiche, come l’alimentazione di nuove unità di calcolo per l’intelligenza artificiale. In questo scenario, il data storage e l’AI non sono solo componenti di un sistema, ma i motori di una nuova economia digitale basata sulla velocità di accesso e sulla sostenibilità dell’informazione.

guest

0 Commenti
Più recenti
Le più votate
Feedback in linea
Visualizza tutti i commenti

Articoli correlati