AI sul lavoro: gestire i lavoratori senza trasformare il posto di lavoro in una macchina sorvegliata

Negli ultimi anni, l’intelligenza artificiale ha smesso di essere solo fantascienza. Nel mondo del lavoro è entrata con prepotenza, non solo nei sistemi produttivi, ma anche nelle modalità di gestione del personale. L’EU‑OSHA, con la sua campagna “Ambienti di lavoro sani e sicuri” (2023‑2025), ha messo l’accento su un tema delicato: la gestione dei lavoratori tramite AI (AIWM – Artificial Intelligence Based Worker Management). Secondo l’agenzia, i sistemi basati su algoritmi possono migliorare la produttività, ottimizzare i turni, prevedere i picchi di domanda, ma se non sono progettati e usati nel modo giusto possono introdurre rischi seri, soprattutto di tipo psicosociale.

I vantaggi reali… e quelli nascosti

Da un lato, gestire i lavoratori con l’AI significa poter usare dati in tempo reale per prendere decisioni: quanti dipendenti servono, con quali competenze, su quali turni. Questo può rendere il lavoro più efficiente, ma soprattutto più predicibile. I sistemi possono assegnare i compiti in base alle competenze, anticipare le carenze di personale e bilanciare il carico in modo più “intelligente” rispetto a un semplice foglio di Excel o a una pianificazione manuale.

Dall’altro lato, però, questi sistemi nascondono insidie. L’EU‑OSHA mette in guardia su un punto fondamentale: la riduzione dell’autonomia per i lavoratori. Quando un algoritmo decide che ore fai, quanto produci, come cambi turno, la sensazione che il proprio lavoro non dipenda più dalle proprie capacità cresce. Questo può generare stress, affaticamento, senso di isolamento e perfino conflitti: meno contatto con il supervisore, più pressione da parte dell’algoritmo, e un “occhio invisibile” che monitora ogni mossa.

Come prevenire i rischi: la “prevenzione attraverso il design”

Un punto chiave è il concetto di prevenzione fin dall’inizio, già nella fase di progettazione dei sistemi AI. Secondo l’EU‑OSHA, bisogna adottare un approccio human‑centred: gli algoritmi non devono sostituire completamente il giudizio umano, ma supportarlo. Questo implica coinvolgere in modo attivo i lavoratori e i loro rappresentanti quando si decide di implementare questi strumenti: partecipazione non come un optional, ma come parte integrante del processo di design e implementazione.

Al centro di tutto c’è un’altra esigenza: formazione e consapevolezza. Non basta installare un software e sperare che funzioni da solo. I lavoratori devono capire come l’AI raccoglie i dati (quali, quando, perché), come vengono prese le decisioni, quali sono i meccanismi di revisione, ed eventualmente come dare feedback. Questa trasparenza è fondamentale per creare fiducia.

Valutazione dei rischi e normative da rispettare

Dal punto di vista della salute e sicurezza sul lavoro, l’uso dell’AI non è esentato dalle regole: servono valutazioni del rischio, come qualsiasi altro fattore psicosociale. L’OSH Framework Directive prevede che i datori di lavoro identifichino i rischi e li gestiscano attivamente, e l’AIWM non fa eccezione.

In più, l’attuale quadro regolatorio europeo offre strumenti concreti:

  • L’AI Act: se un sistema AI gestisce la promozione, l’assegnazione dei compiti, o il monitoraggio delle performance, può essere considerato “ad alto rischio” e quindi soggetto a obblighi di trasparenza, di controllo e di supervisione umana.

  • Il GDPR: protegge i dati personali anche quando l’AI li elabora. In particolare, limita il potere delle decisioni completamente automatizzate che possono avere effetti legali o professionali importanti.

  • La Direttiva sul lavoro delle piattaforme digitali: per i lavoratori delle piattaforme (gig economy) impone che gli algoritmi usati siano spiegati, che ci sia supervisione umana e che i lavoratori possano avere accesso a informazioni su come funzionano.

Il valore della partecipazione

Un aspetto cruciale, secondo Eu-Osha e anche l’INAIL, è il coinvolgimento attivo dei lavoratori e dei loro rappresentanti per mitigare i rischi psicosociali.

In aziende dove i dipendenti hanno partecipato alle decisioni sull’introduzione dell’AI, si è visto che le tensioni diminuiscono: meno il senso di “controllo da parte di un algoritmo” e più la sensazione di “strumento al mio servizio”.

I rischi concreti da non sottovalutare

  • Stress e pressione continuativa: se un algoritmo valuta la performance, può spingere i lavoratori a ritmi sempre più elevati, con poco margine di errore.

  • Sorveglianza invasiva: il monitoraggio costante può generare ansia, isolamento maggiore e una sensazione di essere “sempre sotto esame” anche quando non serve.

  • Perdita di controllo: meno autonomia vuol dire meno fiducia, e un lavoratore che non sente di avere il controllo sul proprio ruolo può essere demotivato.

  • Discriminazione algoritmica: se l’AI non è progettata correttamente, può favorire o penalizzare determinati dipendenti sulla base di dati storici o bias nascosti.

Conclusioni e osservazioni

L’adozione dell’AI per gestire i lavoratori è un’occasione importante per ripensare l’organizzazione del lavoro e abbattere sprechi, inefficienze e rigidità. Ma è un’occasione rischiosa se usata male. Integrare l’AI non significa solo “automatizzare” decisioni: significa ridefinire responsabilità, trasparenza, partecipazione.

Nella mia esperienza, le aziende più lungimiranti sono quelle che non considerano l’AI come un semplice strumento di produttività, ma come un progetto culturale. Coinvolgere i lavoratori fin dall’inizio, spiegare come funzionano gli algoritmi, creare momenti di feedback continuo e garantire un’adeguata supervisione umana sono passi non negoziabili.

Se non ci si muove così, c’è il rischio che l’AI diventi una nuova forma di controllo, non un supporto. Quando invece viene usata con intelligenza, può aumentare il benessere, diminuire i rischi psicosociali e contribuire davvero a un ambiente di lavoro più sano e sicuro.