Il quadro normativo che regola l’uso dell’intelligenza artificiale nei luoghi di lavoro è complesso e in continua evoluzione. Da una parte, l’Unione Europea ha approvato l’AI Act, il primo regolamento organico pensato per disciplinare i sistemi di intelligenza artificiale. Dall’altra, rimangono validi strumenti come il GDPR, che tutela i dati personali, e in Italia il D.Lgs. 81/2008, che rappresenta il fondamento della legislazione in materia di salute e sicurezza sul lavoro. Il punto critico è capire come queste normative interagiscano e come possano essere applicate concretamente nelle imprese.
L’AI Act classifica i sistemi di intelligenza artificiale in base al livello di rischio. Quelli che riguardano la gestione dei lavoratori – dai software di monitoraggio delle performance agli algoritmi che pianificano i turni – sono considerati ad “alto rischio”. Ciò significa che chi li sviluppa e chi li utilizza deve rispettare obblighi stringenti: trasparenza sugli obiettivi, documentazione delle scelte, valutazione preventiva degli impatti, possibilità di revisione umana delle decisioni automatizzate. In altre parole, non si può introdurre un algoritmo di gestione del personale senza dimostrare di averne valutato gli effetti su salute, sicurezza e diritti fondamentali.
Il GDPR, dal canto suo, continua a essere una pietra miliare. Tutti i dati personali e biometrici utilizzati dai sistemi di AIWM devono essere trattati in conformità ai principi di minimizzazione, proporzionalità e liceità. Ciò implica che i lavoratori abbiano diritto a conoscere come vengono trattati i loro dati, a opporsi a usi non legittimi e a richiedere la revisione di decisioni automatizzate che li riguardano direttamente. Un punto particolarmente delicato riguarda la profilazione: l’IA è spesso basata su modelli predittivi che classificano i dipendenti in categorie di “efficienza” o “affidabilità”. Se questo processo non è controllato, può facilmente sfociare in discriminazioni vietate dalla legge.
Sul piano nazionale, il D.Lgs. 81/2008 continua a imporre al datore di lavoro un obbligo generale di tutela. Non basta dire che un sistema è conforme al GDPR o all’AI Act: occorre dimostrare che la sua introduzione non aumenta i rischi per la sicurezza e, anzi, contribuisce a ridurli. Questo significa aggiornare i documenti di valutazione dei rischi, coinvolgere i rappresentanti dei lavoratori per la sicurezza e integrare le nuove tecnologie in un sistema più ampio di prevenzione.
Il vero nodo, quindi, non è la mancanza di norme, ma la loro applicazione pratica. Le aziende si trovano spesso tra due fuochi: da un lato la pressione competitiva a introdurre nuove tecnologie per non restare indietro, dall’altro la necessità di rispettare una cornice regolatoria complessa e ancora in parte da interpretare. In questo scenario, la chiave è l’approccio proattivo. Non basta rincorrere gli adempimenti: serve un impegno reale per integrare la tecnologia con il rispetto della persona.
La direzione è chiara: l’Europa vuole un’IA sicura, trasparente e centrata sull’uomo. Spetta alle imprese, ai consulenti e ai responsabili della sicurezza tradurre questi principi in prassi concrete, facendo sì che l’innovazione non diventi un rischio, ma un’occasione per rafforzare la cultura della prevenzione.

