L’adozione dell’intelligenza artificiale nelle dinamiche aziendali ha superato la fase della semplice curiosità tecnologica per entrare in una dimensione dove l’efficacia è misurata esclusivamente dal ritorno sull’investimento e dalla capacità di generare impatti reali. Tuttavia, una delle sfide principali che le organizzazioni si trovano ad affrontare è la frammentazione informativa che impedisce di costruire modelli affidabili.
Il concetto di grounding AI, ovvero la capacità di ancorare l’intelligenza artificiale su dati certi, verificati e contestualizzati, emerge come il requisito fondamentale per passare da sperimentazioni isolate a una strategia di scala.
Durante un recente approfondimento tecnico tenutosi al FabricAI Day, Pier Luigi Croce, Cloud & AI Platforms Manager di Microsoft, ha analizzato le architetture necessarie per abilitare questa trasformazione, sottolineando come la qualità del dato sia il motore primario di ogni progetto agentico di successo.
Indice degli argomenti
Superare la fase tattica: la necessità di un business case solido
Il panorama attuale dell’innovazione è spesso caratterizzato da iniziative che Croce definisce “tattiche”, ovvero soluzioni rapide che però faticano a integrarsi in una visione di lungo periodo. Il problema risiede spesso nell’incapacità di costruire un solido modello di valore. Come evidenziato dal manager durante l’incontro, «spesso si fanno progetti di AI tattici, non si fanno strategici, o forse perché non siamo in grado di fare un vero e proprio business case». Per superare questo stallo, è indispensabile che le aziende utilizzino i dati per documentare l’impatto e il cambiamento ottenuto, rendendo i risultati quantificabili e tangibili.
Esistono tre aree fondamentali dove l’IA sta già ridefinendo i confini della produttività aziendale. La prima riguarda la workforce, con un impatto diretto sulla produttività individuale supportata da strumenti di assistenza digitale. La seconda area è la supply chain, un settore dove la complessità dell’esternalizzazione e dei costi delle materie prime — come nel caso delle memorie informatiche — richiede analisi predittive estremamente precise.
Infine, il customer engagement, citato attraverso ricerche di mercato come quelle di Adobe, rappresenta un pilastro intuitivo ma difficile da convertire in valore economico reale senza un’adeguata base informativa. In questo scenario, il grounding AI non è solo un’opzione tecnica, ma la condizione necessaria per far funzionare l’intelligenza artificiale su dati conciliati provenienti da sistemi diversi.
Il grounding AI e l’architettura dei dati moderni
Per abilitare un grounding AI efficace, l’architettura dei dati deve evolvere verso modelli che semplifichino l’accesso e la gestione delle informazioni. Croce propone una distinzione tra approcci PaaS (Platform as a Service), ideali per chi desidera costruire applicazioni di analytics su misura utilizzando motori nativi, e approcci SaaS (Software as a Service), orientati all’empowerment delle persone. L’obiettivo di quest’ultima visione è permettere agli utenti di business di essere autonomi nella gestione e certificazione dei propri dati all’interno di un ambiente governato.
L’unificazione dello storage con OneLake
Al centro di questa strategia di semplificazione si colloca il concetto di OneLake, descritto come un unico oggetto centralizzato all’interno dell’azienda capace di ospitare diverse sorgenti di dati. Questa struttura è basata su standard di mercato come Azure Data Lake Storage (ADLS) e supporta formati aperti quali Delta Parquet e Iceberg. L’importanza degli standard aperti è cruciale: garantisce la “cittadinanza principale” a qualsiasi servizio di analisi, riducendo al minimo il rischio di lock-in tecnologico e facilitando l’accesso ai dati senza doverli necessariamente trasferire.
L’approccio basato su OneLake permette inoltre di gestire scenari multi-country, dove la residenza dei dati deve essere mantenuta in aree geografiche specifiche per motivi normativi, pur mantenendo una visione unitaria del patrimonio informativo aziendale. Questa capacità di visione globale è supportata da servizi serverless, che attivano la capacità computazionale solo su richiesta, ottimizzando i costi e aumentando l’efficienza dei processi di ingestione, pulizia e visualizzazione del dato.
Il modello Data Mesh e la certificazione del dato
Un aspetto fondamentale discusso da Croce riguarda la democratizzazione della gestione dei dati attraverso il modello del Data Mesh. In questa configurazione, ogni unità di business — dal Marketing alle Operation — diventa responsabile della qualità delle proprie informazioni. Croce spiega che «ogni utenza di business deve avere l’empowerment per certificare il proprio dato». Ad esempio, il dipartimento Operation può utilizzare strumenti semplificati per pubblicare e validare i dati provenienti dai sistemi di produzione (MES), assicurando che l’informazione condivisa sia corretta alla fine di ogni turno o giornata. Questo crea un ecosistema di data provider interni che garantiscono la solidità necessaria per il grounding AI, permettendo a chi consuma il dato di agire su basi certificate.
Integrazione e continuità tra dato operazionale e analitico
Un limite storico delle architetture aziendali è stata la separazione netta tra i database operazionali (dove avvengono le transazioni) e i sistemi analitici (dove si studiano i trend). Il grounding AI richiede che queste due tipologie di carichi di lavoro siano il più vicine possibile. Croce evidenzia come sia fondamentale che i dati collezionati dalle applicazioni verticali siano pubblicati per l’analytics in modo fluido.
Per risolvere il problema dell’integrazione con sistemi esterni, vengono introdotte tecnologie come il mirroring e le shortcut. Le shortcut permettono di visualizzare dati residenti su altre piattaforme cloud (come Amazon S3 o Google Storage) o sistemi gestionali complessi come SAP senza doverli spostare fisicamente. Nel caso di sistemi come SAP HANA, dove il dato non è nativamente standard, appositi connettori si occupano di renderlo compatibile con i formati aperti, sebbene Croce avverta che sia necessario valutare l’impatto sulle performance della macchina sorgente.
La tecnologia di mirroring, invece, crea una copia speculare e automatica su storage a basso costo, eliminando i costi di gestione del processo e garantendo la disponibilità del dato per le analisi senza gravare sui sistemi di produzione.
Dall’analisi alla proattività: Real-Time Intelligence e agenti
Il valore finale di un’architettura basata su un solido grounding AI si manifesta nella capacità di reagire agli eventi in tempo reale e di delegare compiti a entità intelligenti. La Real-Time Intelligence permette di collezionare eventi e analizzarli istantaneamente, una funzione vitale in contesti critici come la gestione aeroportuale, dove è necessario monitorare costantemente lo stato delle piste e dei voli per prendere decisioni immediate. Attraverso linguaggi di interrogazione come il KQL (Kusto Query Language), le aziende possono gestire milioni di eventi al secondo in modo semplificato, mascherando la complessità tecnica sottostante.
Tuttavia, il vero salto di paradigma è rappresentato dal passaggio dall’IA generativa tradizionale all’approccio agentico. In questo modello, l’IA non è più solo uno strumento di ricerca, ma un «collega» con cui collaborare. Croce identifica diverse tipologie di agenti che possono essere abilitati da una corretta semantica del dato:
- Data agent: permettono di interrogare dati strutturati in modalità conversazionale, superando la logica della ricerca generica.
- Operational agent: rappresentano il livello più avanzato, poiché sono in grado di seguire un piano d’azione (playbook) e agire proattivamente.
L’agente operativo non attende una domanda dall’utente, ma è il processo stesso a “chiamare” l’operatore. Croce riporta l’esempio di un sistema che rileva detriti su una pista aeroportuale: grazie al dato in tempo reale, l’agente può avvisare il responsabile tramite strumenti di collaborazione aziendale, indicando l’azione necessaria da compiere.
Affinché questi agenti siano efficaci, è indispensabile costruire uno strato di conoscenza ontologica che superi la struttura fisica dei database. Se il concetto di “Cliente” è frammentato tra CRM e sistemi contabili, il Knowledge Graph deve essere in grado di unificare queste informazioni in un’unica entità logica, rendendola trasparente all’intelligenza artificiale indipendentemente dalla sua posizione fisica. Solo attraverso questa organizzazione semantica e un rigoroso grounding AI, le organizzazioni possono realmente democratizzare l’accesso all’innovazione, permettendo a ogni utente di creare e governare i propri agenti intelligenti.







