Il panorama delle infrastrutture digitali sta attraversando una trasformazione profonda, segnata dal passaggio da una gestione puramente reattiva a sistemi capaci di anticipare le criticità. In una recente conversazione tecnica con TechZine tenutasi a margine dell’evento HPE Discover, Larry Lunetta, vice presidente del VP del Technical Marketing per HPE, ha delineato i contorni di questa evoluzione.
Al centro della discussione non vi è più soltanto la capacità di generare risposte, tipica della fase precedente dell’intelligenza artificiale, ma l’avvento di un paradigma superiore: l’agentic AI. Questa tecnologia non si limita a elaborare informazioni su richiesta, ma introduce una capacità di ragionamento e un’autonomia operativa che promettono di ridefinire il lavoro degli amministratori di rete.
Indice degli argomenti
L’evoluzione dell’intelligenza artificiale nelle reti: dall’AIOps all’agentic AI
Il percorso che ha portato all’attuale configurazione delle soluzioni HPE non è stato improvviso, ma rappresenta il culmine di un viaggio decennale nell’integrazione dell’intelligenza artificiale. Larry Lunetta spiega che l’architettura si sviluppa su tre livelli fondamentali: l’hardware fisico, che comprende switch e access point distribuiti dal data center al cloud; il livello della sicurezza, arricchito recentemente da micro-segmentazione e SASE; e infine l’apice rappresentato dall’AI e dall’AIOps.
Il salto verso l’agentic AI segna il superamento della Generative AI tradizionale. Se quest’ultima permetteva di porre una domanda e ottenere una risposta, il nuovo approccio introduce una dimensione proattiva. Secondo Lunetta, «L’Agentic AI impiega il ragionamento; è autonoma in termini di analisi e potenziali azioni». Questa capacità di analisi indipendente è supportata da un’architettura multi-livello composta da agenti progettati su misura, ognuno dei quali ha una missione specifica all’interno dell’ecosistema di rete.
Ragionamento e autonomia: cosa distingue i nuovi agenti
La differenza sostanziale risiede nella missione assegnata a questi componenti software. Gli agenti si muovono attraverso la rete con compiti verticali: individuare problemi DNS, falle nella sicurezza o malfunzionamenti degli access point. Non si tratta di una semplice scansione passiva, ma di un’attività che simula il comportamento di un esperto umano. Lunetta sottolinea che questo ecosistema è ora considerato propriamente agentic AI proprio perché capace di trarre conclusioni autonome dai dati raccolti.
Questi agenti possono risiedere in diverse posizioni strategiche. Attualmente la maggior parte di essi opera nel cloud, dove riceve telemetria in tempo reale dall’intera rete. Tuttavia, l’evoluzione tecnologica sta portando questi strumenti sempre più vicini alla sorgente del dato. Gli access point moderni sono infatti in grado di eseguire container, rendendo possibile l’esecuzione degli agenti direttamente sul dispositivo periferico, riducendo ulteriormente la latenza tra la generazione del dato e la sua elaborazione.
L’architettura del Multi-Agent Orchestrator e il ruolo della telemetria
Per coordinare questa flotta di agenti specializzati, HPE ha introdotto una figura centrale: il Multi-Agent Orchestrator. Questo sistema funge da centro di comando sempre attivo, elaborando le informazioni che arrivano dai vari agenti e decidendo come procedere. Lunetta descrive l’orchestratore come «un assistente di rete che non dorme mai, non si prende mai un giorno di riposo, elaborando costantemente le informazioni provenienti da questi agenti».
Il funzionamento del sistema si basa su due modalità principali. Nella modalità automatizzata, l’agentic AI opera in autonomia: se rileva un’anomalia, inizia un’indagine indipendente, eseguendo strumenti tecnici come ping o traceroute, proprio come farebbe un amministratore di rete in carne e ossa. In questo scenario, l’agente può segnalare i dati in modo che il livello superiore riconosca il problema attraverso la correlazione di più fonti, oppure può esso stesso sollevare la questione e suggerire la riparazione necessaria.
Autonomia assistita: il paradigma Human-in-the-Loop
Nonostante l’alto grado di indipendenza tecnologica, Lunetta è categorico su un punto: l’autonomia non deve essere confusa con un’automazione priva di controllo. Il principio cardine dell’agentic AI in questo settore rimane il paradigma “Human-in-the-loop”. L’infrastruttura rileva e diagnostica il problema, sviluppa una serie di raccomandazioni su come risolverlo e le sottopone all’amministratore, fornendo anche le prove e le evidenze che hanno portato a tale conclusione.
Questo approccio permette di costruire un rapporto di fiducia graduale tra l’uomo e la macchina. L’amministratore può decidere di autorizzare l’azione e, se soddisfatto, può istruire il sistema affinché in futuro proceda senza chiedere ulteriore conferma per quel tipo specifico di intervento. Per facilitare questa interazione, è disponibile un Co-pilot che consente di interrogare la rete in linguaggio naturale, permettendo all’operatore di chiedere, ad esempio, se esistono problemi proattivi o di indagare su rallentamenti specifici segnalati dagli utenti.
La forza dei dati: un lago da un trilione di informazioni al giorno
L’efficacia dell’agentic AI è direttamente proporzionale alla qualità e alla quantità dei dati utilizzati per l’addestramento e l’inferenza. Larry Lunetta evidenzia come HPE disponga di quello che definisce il più grande data lake di rete integrato del settore. I numeri presentati durante l’intervista delineano una portata massiccia:
- 6 milioni di dispositivi di rete attivi.
- 3 miliardi di dispositivi client che si connettono quotidianamente.
- 1 trilione di frammenti di dati alimentati ogni giorno nel data lake.
Questi dati non vengono utilizzati in modo generico. La strategia dell’azienda prevede l’uso di modelli specifici per problemi diversi; Lunetta sottolinea infatti che non tutti i problemi richiedono un Large Language Model (LLM) e che il segreto risiede nel sapere quale strumento utilizzare per ogni specifica esigenza.
Ottimizzazione delle performance e coorti di configurazione
Un aspetto cruciale nella gestione di questa mole di informazioni è l’anonimizzazione e l’organizzazione in “coorti”. I dati dei clienti vengono raggruppati in base a configurazioni simili — circa 30 tipologie diverse — che tengono conto della topologia della rete, del tipo di dispositivi e delle dimensioni dell’infrastruttura. Questo permette di effettuare dei benchmark estremamente precisi: il sistema può confrontare una rete specifica con altre simili e suggerire modifiche ai settaggi che hanno dimostrato di funzionare meglio altrove.
I risultati tangibili di questo approccio sono significativi. Lunetta dichiara che «possiamo restituire fino al 25% di miglioramento delle prestazioni a un cliente, senza nuovo hardware, solo cambiando le impostazioni». Questo dimostra come l’agentic AI non sia solo uno strumento di risoluzione dei problemi, ma un motore costante di ottimizzazione dell’efficienza.






