Le aziende contengono gli agenti AI per bilanciare rischio e rendimento
Con la maturazione degli agenti AI, le aziende stanno sperimentando con cautela per coglierne i benefici limitando al contempo i rischi operativi e legati ai dati. Le organizzazioni stanno ponendo l’accento su governance, contenimento e implementazioni mirate per evitare errori costosi.

NEW YORK — Mentre le imprese accelerano l’adozione degli agenti AI, molte stanno scoprendo che la velocità deve essere bilanciata con il controllo. Le prime sperimentazioni hanno mostrato sia il potenziale dell’AI agentica sia i rischi operativi e di governance che la accompagnano.
Kevin Hearn, vicepresidente senior e responsabile dello sviluppo della consumer bank presso Axos Bank, lo ha imparato in prima persona. Come uno dei primi adottanti dell’AI, inizialmente ha concesso a 300 dipendenti l’accesso a un agente AI senza un obiettivo specifico. Il risultato è stato 300 esiti diversi.
Alcuni dipendenti hanno utilizzato l’agente per scrivere codice, altri per correggerlo, e alcuni hanno avuto difficoltà a fornirgli prompt efficaci, con conseguente qualità del codice incoerente. Hearn ha infine ridotto il gruppo di tester AI da 300 a circa cinque-sette persone dedicate alla sperimentazione, al test e al perfezionamento dell’agente.
“Quando le persone vengono da me con delle idee, posso dare loro l’autonomia di perseguirle, oppure farò concentrare quel team specificamente su di esse,” ha detto Hearn. “La forza di quel team è che, una volta consolidato un agente in un’area specifica, cioè dopo aver lavorato con tutti gli utenti di quell’agente per dargli un impatto aziendale, siamo ora in grado di replicarlo in modo coerente.”
Questo approccio più centralizzato riflette il modo in cui le imprese stanno cercando di sfruttare la potenza degli agenti AI contenendone al contempo i rischi. I leader subiscono pressioni per innovare rapidamente, ma sono anche cauti rispetto alle conseguenze indesiderate.
“Gli agenti non sono software tradizionali,” ha affermato Matt DeBergalis, CEO e cofondatore di Apollo GraphQL. “Da un lato, tutti battono il pugno sul tavolo dicendo: ‘Andate veloci, puntate in alto, comportatevi come una startup.’ Ma dall’altro, questa è la più grande minaccia di esfiltrazione dei dati per ogni impresa.”
Secondo DeBergalis, le imprese hanno bisogno di solide fondamenta che consentano di sperimentare in modo misurato, anziché distribuire agenti su larga scala senza adeguate protezioni.
Casi d’Uso Interni Prima di Tutto
Per Axos, l’opportunità offerta dall’AI era troppo significativa per essere ignorata. La banca ha scelto di mitigare il rischio concentrandosi inizialmente su casi d’uso interni. Utilizza OutSystems Agent Workbench per creare, distribuire e gestire agenti AI, inclusi agenti interni per analisti di business, agenti Scrum Master e agenti di ingegneria.
Hearn ha sottolineato che un piccolo team centralizzato aiuta a garantire governance e supervisione adeguata.
“Tutto passa attraverso quel tipo di team centralizzato che garantisce la presenza della governance,” ha detto. “Per governance intendiamo che lo utilizziamo in modo appropriato. Non stiamo fornendo informazioni che non dovremmo. Non ha accesso al mondo esterno.”
Anche la fintech Netevia ha adottato un approccio simile. Utilizza l’AI, inclusa l’AI agentica, per processi interni come il servizio clienti, ma evita di integrarla nelle applicazioni rivolte al pubblico.
“Parte del percorso consiste nel capire come procedere lentamente,” ha affermato Vlad Sadovskiy, CEO di Netevia. “Non si può [fare errori] con il denaro delle persone anche se la tecnologia è già disponibile per altri che effettuano pagamenti agentici, pagamenti AI-to-AI. Siamo ancora a circa un anno dal momento in cui le persone penseranno davvero all’adozione.”
Bilanciare l’Innovazione Esterna con i Controlli
Altre imprese stanno distribuendo agenti AI in applicazioni rivolte ai clienti, mantenendo al contempo una rigorosa supervisione.
In T-Mobile, l’AI supporta il servizio clienti attraverso la sua app basata sull’AI, T-Life. Julianne Roberson, direttrice dell’ingegneria AI presso T-Mobile, ha affermato che la gestione del rischio è centrale nella loro strategia.
“Abbiamo osservabilità su tutto, quindi se qualcosa va storto, lo vediamo,” ha detto Roberson. “Cerchiamo di non rilasciare nulla se non sappiamo se funzionerà.”
Anche Upwork ha investito molto nel contenimento. L’azienda utilizza internamente modelli linguistici personalizzati e li sottopone a un sistema di fiducia progettato per prevenire allucinazioni e mantenere i risultati coerenti.
“Abbiamo costruito molta tecnologia interna che fornisce l’imbracatura di sicurezza per tutto questo,” ha dichiarato Andrew Rabinovich, CTO e responsabile dell’AI di Upwork. “Ogni modello linguistico eseguito internamente — e sono tutti personalizzati — viene fatto passare attraverso questo sistema di fiducia per evitare allucinazioni e prevenire deviazioni.”
Upwork si è anche concentrata sull’educazione dei dipendenti su come funzionano gli agenti AI, consentendo ai team di comprendere meglio casi d’uso appropriati e limiti.
La più ampia strategia di contenimento — garantire che quadri di governance, osservabilità e salvaguardie tecniche siano in atto prima di una distribuzione più ampia — sta emergendo come un tema comune tra le imprese.
“Le persone vedono le prestazioni, le scambiano per affidabilità, poi viene la FOMO e diventa un caos. Non appena si entra in modalità FOMO, è un grande caos,” ha affermato Robert Blumofe, vicepresidente esecutivo e chief technology officer di Akamai. “Usate l’AI per ciò in cui è straordinaria e non cercate di forzarla in tutto.”
Mentre gli agenti AI continuano a maturare, le imprese stanno imparando che il successo dipende non solo dall’adozione, ma anche da sperimentazione disciplinata, governance e dalla consapevolezza di dove la tecnologia offre il maggior valore.