L’introduzione dei sistemi di gestione dei lavoratori basati su intelligenza artificiale (AIWM, Artificial Intelligence Worker Management) sta segnando una trasformazione profonda nei contesti organizzativi contemporanei. Questi strumenti, sempre più diffusi in numerosi settori, operano analizzando grandi volumi di dati in tempo reale per assegnare compiti, pianificare turni e monitorare in modo continuo le prestazioni lavorative. L’obiettivo dichiarato è l’ottimizzazione della produttività, ma le implicazioni per la salute e la sicurezza sul lavoro (SSL) sollevano interrogativi cruciali, soprattutto alla luce di un quadro normativo e tecnico ancora in fase di consolidamento.
Nati per migliorare l’efficienza operativa, i sistemi AIWM sono ormai presenti in ambiti come la logistica, la produzione industriale, il commercio al dettaglio, la sanità e i servizi bancari. Si tratta di tecnologie che vanno ben oltre il semplice supporto decisionale: in molti casi decidono in autonomia come distribuire il lavoro, quanto tempo assegnare a ciascun compito e con quali modalità valutarne l’esecuzione. Questo tipo di automazione porta con sé una ridefinizione profonda del ruolo umano nei processi lavorativi e, con essa, nuovi rischi professionali che è necessario analizzare in modo sistematico.
Uno dei principali aspetti critici riguarda l’impatto di questi sistemi sull’equilibrio psicosociale dei lavoratori. La continua sorveglianza, unita a obiettivi di performance talvolta poco trasparenti o difficilmente raggiungibili, può generare condizioni di stress prolungato, aumentare il rischio di burnout e incidere negativamente sulla motivazione. In alcuni casi, l’algoritmo stabilisce il ritmo di lavoro in modo così stringente da lasciare ai lavoratori margini operativi minimi, riducendo la loro autonomia e il senso di controllo sul proprio operato: fattori che la letteratura scientifica considera da tempo determinanti per il benessere psicosociale.
Un ulteriore elemento di preoccupazione è rappresentato dalla progressiva riduzione delle interazioni umane sul posto di lavoro. Il venir meno del ruolo attivo del supervisore o del responsabile diretto, sostituito da processi gestiti da software, rischia di compromettere la qualità della comunicazione interna e il supporto relazionale, accentuando il senso di isolamento e alimentando dinamiche di disumanizzazione. Questo effetto può risultare particolarmente dannoso in contesti dove il lavoro di squadra, la fiducia reciproca e la gestione empatica dei carichi sono elementi chiave per la sicurezza.
Dal punto di vista della tutela della privacy, l’adozione massiva di tecnologie di monitoraggio solleva ulteriori criticità. I sistemi AIWM raccolgono e analizzano dati personali, comportamentali e biometrici, spesso senza un’informativa adeguata o un reale consenso da parte del lavoratore. Inoltre, il rischio di discriminazione algoritmica, dovuto all’utilizzo di dataset storici contenenti bias o pregiudizi sistemici, può compromettere l’equità nei processi decisionali, influenzando negativamente la distribuzione delle mansioni, le valutazioni delle performance o le opportunità di crescita professionale.
Tuttavia, è opportuno sottolineare che l’intelligenza artificiale non rappresenta di per sé una minaccia. Se progettati e implementati in modo responsabile, i sistemi di gestione algoritmica possono anche offrire nuove opportunità per il miglioramento della salute e sicurezza sul lavoro. Alcuni modelli, ad esempio, sono in grado di individuare precocemente segnali di affaticamento o stress nei lavoratori, permettendo interventi tempestivi da parte del management. Inoltre, un’adeguata personalizzazione dei carichi e degli orari, basata su dati reali e aggiornati, può contribuire a una migliore compatibilità tra compiti assegnati e capacità individuali, favorendo l’inclusione di lavoratori con esigenze specifiche o fragilità temporanee.
Per garantire che l’adozione dell’AIWM non comprometta la sicurezza nei luoghi di lavoro, è indispensabile un approccio integrato che coinvolga tutte le parti sociali. La progettazione di questi sistemi deve prevedere un’accurata valutazione dei rischi, con particolare attenzione agli aspetti psicosociali, e strumenti di governance trasparenti e verificabili. È inoltre fondamentale che i lavoratori vengano adeguatamente informati e formati sull’utilizzo dell’intelligenza artificiale nei processi aziendali, affinché possano comprenderne il funzionamento e segnalare eventuali criticità.
In definitiva, l’intelligenza artificiale nella gestione dei lavoratori rappresenta una svolta significativa che, come ogni innovazione, porta con sé vantaggi e pericoli. Solo attraverso una progettazione partecipata, un monitoraggio continuo e l’adozione di principi etici nella tecnologia sarà possibile trasformare questi strumenti in alleati concreti della prevenzione, contribuendo a creare ambienti di lavoro più sicuri, equi e sostenibili.

