Quando si parla di intelligenza artificiale applicata all’industria, la tentazione è ridurla a una parola magica che risolve tutto. Ma chi lavora davvero a contatto con robot collaborativi, algoritmi predittivi, impianti autonomi sa bene che la questione non è se queste tecnologie funzionano. La vera domanda è come le governiamo, quanto siamo disposti a formare chi le usa e quanto ci fidiamo di farci sostituire in certe decisioni.
Un dato di fatto: il Regolamento Europeo sull’Intelligenza Artificiale, approvato definitivamente nel 2024, segna uno spartiacque. Per la prima volta in Europa si definisce per legge che certi sistemi di IA sono “ad alto rischio” e che, di conseguenza, l’uomo non può scomparire dalla catena di controllo. Un algoritmo che supervisiona una linea produttiva, una pala meccanica semiautonoma o un braccio robotico che collabora a fianco di un operaio non possono essere lasciati soli. Questo comporta un obbligo non banale: la supervisione umana deve essere reale, non solo dichiarata in un manuale.
Nel concreto, questo significa che le aziende devono aggiornare i Documenti di Valutazione dei Rischi (DVR) includendo variabili nuove. È un punto che molti ancora trascurano. Un sensore di prossimità che rileva male un ostacolo, una telecamera che “non vede” un operaio inginocchiato dietro un bancale, un algoritmo di manutenzione predittiva che non segnala per tempo l’usura di una pinza meccanica: ogni anello debole può diventare un incidente reale, con conseguenze legali pesanti. Il Regolamento impone la tracciabilità delle decisioni automatizzate. Ma nella pratica, quanti imprenditori sanno dove sono archiviati questi dati? Chi garantisce che siano leggibili anche dopo una contestazione o un infortunio grave?
Chi scrive ha raccolto casi in Germania, Francia, persino in Italia dove la macchina “intelligente” si è rivelata cieca davanti a scenari imprevisti. Il caso di un operaio schiacciato da un robot collaborativo in una catena automotive tedesca è emblematico. Il sistema era programmato per fermarsi se rilevava movimenti umani fuori schema. Ma l’operaio, piegato dietro una colonna per controllare un componente difettoso, non venne riconosciuto come “essere umano” dal sensore perché indossava un giubbotto riflettente non mappato. Risultato: l’algoritmo non fermò il braccio, l’uomo fu travolto. L’inchiesta rivelò che il fornitore non aveva aggiornato la libreria visiva dei materiali riflettenti. Il DVR, ovviamente, non ne parlava.
È un paradosso dei nostri tempi: ci fidiamo di software sempre più sofisticati, ma spesso trascuriamo i dettagli più banali. L’interfaccia uomo-macchina è un confine di responsabilità che la legge definisce in modo chiaro. L’articolo 2087 del Codice Civile italiano impone al datore di lavoro di garantire “l’integrità fisica e la personalità morale del lavoratore”. Nessun algoritmo solleva da questo obbligo. Il D.Lgs. 81/2008, ancora oggi il testo unico di riferimento in Italia, non parla esplicitamente di intelligenza artificiale, ma l’articolo 15 sull’organizzazione del lavoro e la valutazione dei rischi è chiarissimo: ogni nuovo rischio va previsto, valutato, gestito. Non basta inserire l’IA in un paragrafo del DVR. Bisogna dimostrare di avere procedure concrete per controllarla.
Molte imprese italiane, specie PMI, hanno iniziato a introdurre robot collaborativi, magazzini automatizzati, veicoli a guida autonoma. In teoria, una svolta per l’efficienza. In pratica, spesso manca il passo successivo: aggiornare la formazione. Non basta fare un corso generico di due ore sulla “digitalizzazione”. Serve spiegare agli operai come interrompere una procedura automatica, come intervenire se un allarme non scatta, come riconoscere un’anomalia. E serve documentare questa formazione. INAIL e ISPESL (oggi INL) lo ripetono: senza tracciabilità, l’azienda resta scoperta.
Poi c’è il tema delle manutenzioni. La manutenzione predittiva, potenziata dall’IA, promette di evitare fermi macchina e costi inattesi. Ma chi controlla se le previsioni sono affidabili? Chi decide di fermare una linea quando l’algoritmo dice “tutto regolare”, ma l’operatore avverte un rumore insolito? Il Regolamento UE ribadisce che il giudizio finale deve restare umano. Questo punto è cruciale: non basta avere dati, bisogna avere occhi esperti per interpretarli.
Un altro rischio, meno evidente, è l’eccesso di fiducia. Se un sistema di sorveglianza video con IA promette di rilevare posture scorrette o comportamenti pericolosi, molti responsabili sicurezza pensano di poter ridurre controlli fisici. Errore grave. Il monitoraggio elettronico è utile, ma non sostituisce la vigilanza in carne e ossa. Il Regolamento, nella sua parte finale, è chiaro: i dati generati dall’IA devono essere verificabili da esseri umani. E qui torna la formazione. Sapere come funziona l’algoritmo non è un lusso tecnico. È una condizione per capire quando e perché può sbagliare.
Chi lavora nella sicurezza sul lavoro sa bene che ogni innovazione porta vantaggi, ma anche rischi nuovi. La differenza sta tutta nella cultura aziendale. Un datore di lavoro che installa una linea robotica senza spiegare a operai, RLS, RSPP come funziona quel cervello elettronico, come lo si aggiorna, come lo si blocca in emergenza, sta facendo un investimento a metà. Peggio: sta creando un rischio nuovo.
Serve un cambio di mentalità. L’intelligenza artificiale è uno strumento, non un sostituto del buonsenso. Il controllo umano deve restare una condizione obbligatoria, non facoltativa. Le normative ci sono, europee e nazionali. Gli incentivi pure: l’INAIL premia con riduzioni di premio le aziende che dimostrano di avere processi di sorveglianza evoluti. Ma la vigilanza è vigilanza se è fatta da persone competenti.
Alla fine, resta una regola vecchia come il lavoro: la sicurezza non la fa la macchina, ma chi la guarda funzionare. Possiamo programmare sensori sempre più sensibili, algoritmi sempre più veloci, ma se l’uomo abdica al controllo, l’incidente non è questione di “se”, ma di “quando”.
Conclusione
L’intelligenza artificiale promette molto, ma pretende di essere compresa. La convivenza uomo-macchina richiede formazione vera, manutenzione puntuale e DVR aggiornati.
“Un algoritmo, da solo, non può salvare nessuno.”

