Una conversazione sui sistemi multi-agent, l’AI come gesto politico e i rischi di affidamento cieco

In questa intervista incontriamo Matilde Sartori, ricercatrice e designer
con formazione da data scientist e AI researcher. Ha lavorato come developer, docente d’arte e programmatrice, esplorando l’integrazione tra intelligenza artificiale, dati e apprendimento creativo.
Con lei parliamo di agenti AI, sistemi multi-agent, casi d’uso non
convenzionali e raccomandazioni per chi lavora in azienda.
Da dove partiresti per spiegare cosa sono oggi gli agenti AI a chi lavora in azienda ma non ha un background tecnico?
Un agente AI è un sistema che – oltre a generare contenuti come Chat GPT – può eseguire azioni specifiche in autonomia. Non è un assistente generico, ma qualcosa che viene progettato al fine di svolgere un compito preciso all’interno di un processo, in modo continuo e controllato.
Oggi il vero tema non è il singolo agente ma usarne più assieme: diversificare i sistemi, ognuno con una funzione specifica, con l’obiettivo di coordinare le azioni per portare avanti attività più complesse. Questo approccio – che viene chiamato multi-agent – è quello che secondo me vale davvero la pena esplorare in questo momento storico.
A differenza di un sistema unico, usare più agenti permette di affrontare problemi da angolazioni diverse, in parallelo. Il coordinamento può essere centralizzato, quindi un agente principale che gestisce gli altri, oppure distribuito, dove ogni agente si organizza in autonomia e il controllo può arrivare da varie angolazioni. Questa è una maniera di organizzare il flusso più dinamico e flessibile, un buon lavoro di squadra insomma.
Hai visto casi interessanti di utilizzo di agenti AI nel lavoro quotidiano? Cosa ti ha colpito di più?
Sì, un esempio che mi ha colpito è il progetto Design for Economy di Virginia Padovani. Virginia è riuscita a costruire un sistema multi-agent con la libreria open-source CrewAI per esplorare scenari economico-politici alternativi. Ogni agente aveva un ruolo definito – come ad esempio politico, manager, dipendente di una ONG – ed era incaricato di discutere e confrontarsi all’interno di una simulazione con l’obiettivo di testare ipotesi su modelli di società diversi, anche post-capitalisti, partendo da cornici etiche e politiche come l’anarchia, l’umanesimo o il postumanesimo. Il progetto cercava di simulare dinamiche difficili da indagare nella realtà, utilizzando diversi riferimenti teorici e strumenti filosofici per costruire scenari complessi.
Design for Economy ha cercato di spingere il concetto stesso di cosa possa essere l’AI, mostrando come l’interazione tra agenti specializzati può riprodurre forme di dibattito politico o simulare l’impatto di certi modelli economici. Più che un esperimento tecnico è stato anche un gesto politico e speculativo. Mi ha colpito perché andava oltre i classici casi d’uso dell’AI, portandola in un contesto di ricerca critica, personale e decisamente non convenzionale.
Secondo te, quali caratteristiche rendono un agente AI davvero utile per le persone e i team?
Un agente AI diventa davvero utile quando è inserito in un workflow chiaro e strutturato. Deve sapere dove inizia, dove finisce, con chi si interfaccia e che tipo di output deve generare. Una caratteristica importante degli agenti è infatti la specializzazione: un agente pensato per fare bene una cosa sola tende a funzionare meglio di uno che cerca di fare un po’ di tutto.
Ma soprattutto un agente è utile quando riesce a collaborare in modo efficace con altri agenti o sistemi, quindi seguendo logiche di scambio e coordinamento. È lì che inizia a diventare davvero parte di qualcosa di più grande.
Quali rischi vedi più spesso sottovalutati quando si introducono agenti AI nei processi aziendali?
Credo che il rischio più comune sia quello dell’affidamento eccessivo. Vale per tutti i discorsi sull’AI in generale, ma con gli agenti è ancora più evidente. In particolare mi preoccupa l’idea che vengano approcciati come sostituti, quando in realtà dovrebbero essere strumenti di supporto.
Un agente non sostituisce nessuno e un sistema multi-agent non può fare il lavoro di un team. Sono strumenti che possono supportare i processi, aiutare a elaborare meglio le informazioni, a esplorare alternative o generare nuove idee. Ma tutto questo ha senso solo se c’è una collaborazione attiva tra chi usa questi strumenti e il modo in cui vengono progettati. Pensare l’agente AI come qualcosa che “fa da solo” o “decide al posto tuo” è un errore. L’approccio giusto, secondo me, è vederli come parte di un ecosistema che supporta, non che esegue al posto tuo.
Cosa consiglieresti a chi vuole iniziare a esplorare o sviluppare agenti AI nel proprio contesto lavorativo?
Di iniziare con il testarli, giocarci un po’ e iniziare a capirne davvero il funzionamento. Serve tempo per imparare ad usarli nella maniera più efficace, adattarli al proprio contesto e non applicarli in maniera casuale all’interno dei flussi di lavoro.
Come immagini evolveranno gli agenti AI nei prossimi due anni?
Non sono sicura di riuscire a fare previsioni a “lungo termine” vista la velocità con cui queste tecnologie progrediscono. Certo è che nei prossimi mesi gli agenti diventeranno sempre più connessi a sistemi esterni, con accesso a diverse parti dell’internet e a risorse in tempo reale. Se penso che due anni fa si iniziava timidamente a parlare di Chat GPT è abbastanza evidente quanto cambino in fretta questi scenari.
💡 Ti è piaciuta l’intervista? Iscriviti alla nostra newsletter ai@work per ricevere ogni mese nuove conversazioni e approfondimenti su AI, lavoro e innovazione.
📎 Hai esperienze o progetti con agenti AI che vuoi condividere? Scrivici, potremmo raccontarli nel prossimo post.