Intelligenza artificiale e sistemi uomo-macchina a circuito chiuso
Modelli linguistici, segnali neurofisiologici e integrazione nei contesti clinici e industriali
Lo sviluppo dell’intelligenza artificiale nei contesti operativi richiede di considerare l’interazione tra modelli computazionali, stato cognitivo dell’operatore e ambiente. Il valore dei sistemi uomo-macchina dipende dall’integrazione tra queste componenti più che dalle prestazioni isolate dei modelli.
Negli ultimi anni l’intelligenza artificiale è entrata in contesti sempre più operativi, dalla sanità alla robotica. In questi ambienti l’AI si è estesa da scenari di simulazione a processi che hanno conseguenze immediate sul mondo reale. Questo spostamento rende evidente un limite delle discussioni tradizionali: non essendo più sufficiente valutare la potenza dei modelli, è necessario considerare il sistema complessivo in cui l’AI opera insieme a una persona.
Un editoriale pubblicato su Frontiers in Neuroscience propone di leggere questa evoluzione come l’incontro tra tre aree di sviluppo: i modelli linguistici, che permettono un’interazione basata sul linguaggio naturale; le tecnologie di misurazione neurofisiologica, che consentono di stimare aspetti dello stato cognitivo ed emotivo; e i sistemi industriali e clinici, che richiedono controllo continuo e gestione del rischio. Da questa convergenza emerge l’idea di un sistema uomo-macchina a circuito chiuso, in cui l’attività dell’operatore viene rilevata, interpretata e utilizzata per modulare il comportamento della macchina.
In questo contesto, la sicurezza e l’affidabilità non vengono più trattate come requisiti “aggiunti” dopo lo sviluppo - dunque a posteriori -, ma come proprietà che dipendono dall’interazione tra cervello umano, algoritmo e ambiente operativo. Un sistema che ignora il carico mentale dell’operatore o la qualità della sua attenzione resta vulnerabile anche se il modello sottostante è accurato da un punto di vista logico. La questione centrale diventa quindi come integrare segnali fisiologici, dati di contesto e capacità di elaborazione automatica in un unico flusso coerente.

Uno degli studi discussi nell’editoriale riguarda l’uso dei modelli linguistici come interfaccia in compiti complessi: la valutazione tramite EEG suggerisce una riduzione dello sforzo mentale e un miglioramento dell’attenzione durante l’interazione. L’effetto deriva principalmente dal modo in cui l’informazione viene organizzata e resa accessibile: il modello linguistico agisce come uno strumento cognitivo che modifica la struttura dell’attività, con conseguenze misurabili sullo stato neurofisiologico dell’operatore.
Un altro ambito analizzato è quello dei sistemi clinici ad alta complessità, come la chirurgia robotica. Qui l’AI viene utilizzata per monitorare il funzionamento del sistema e per individuare situazioni potenzialmente instabili. Il contributo principale avviene riguardo la capacità di segnalare quando l’interazione tra persona e macchina sta entrando in una zona critica. La sicurezza viene quindi direttamente legata alla qualità della relazione tra componenti umane e artificiali, più che al singolo modulo tecnologico.
L’editoriale propone anche di considerare i modelli linguistici come oggetti di studio per la neuroscienza computazionale. Questi sistemi mostrano proprietà funzionali che possono essere analizzate con strumenti simili a quelli usati per lo studio della cognizione, come la rappresentazione dell’informazione, la generalizzazione e gli errori sistematici. Questa prospettiva permette un doppio movimento: usare modelli artificiali per testare ipotesi sui processi cognitivi e usare dati neuroscientifici per comprendere meglio il comportamento dei modelli.
Il filo conduttore di questi contributi è l’idea che l’AI diventi parte di un sistema adattivo in cui le decisioni dipendono dalla combinazione tra segnali neurali, modelli computazionali e vincoli dell’ambiente. L’attenzione si sposta dalla prestazione isolata del modello alla qualità dell’integrazione. In questo senso, l’interesse è rivolto principalmente configurazioni ibride in cui la macchina tiene conto dello stato dell’operatore e l’operatore interagisce attraverso canali più naturali e continui.
Questo approccio ha conseguenze pratiche, soprattutto in contesti industriali e clinici dove progettazione dovrà considerare variabili che in passato venivano trattate come esterne, quali l’affaticamento, l’incertezza, la variabilità e le fragilità individuali. La misurazione neurofisiologica e l’interazione linguistica diventeranno strumenti per rendere visibili questi aspetti e inserirli nei processi decisionali automatizzati.
L’intelligenza artificiale deve diventare una componente che osserva, interpreta e si adatta allo stato della persona con cui interagisce, dentro architetture che devono essere progettate tenendo conto di questa reciprocità.
Fonte: https://www.frontiersin.org/journals/computational-neuroscience/articles/10.3389/fncom.2026.1780276/full

