Negli ultimi mesi l’utilizzo di strumenti basati su intelligenza artificiale per supportare la gestione della sicurezza sul lavoro sta crescendo rapidamente. Tra le applicazioni più diffuse vi sono software che promettono di generare o aggiornare automaticamente il Documento di Valutazione dei Rischi (DVR).
Su questo punto è però intervenuto il Ministero del Lavoro, richiamando l’attenzione delle imprese: affidare l’aggiornamento automatico del DVR a sistemi di intelligenza artificiale non è compatibile con gli obblighi previsti dalla normativa sulla sicurezza sul lavoro.
Il DVR resta un obbligo indelegabile del datore di lavoro
Il Documento di Valutazione dei Rischi è uno degli strumenti cardine previsti dal D.Lgs. 81/2008.
La normativa stabilisce che la valutazione dei rischi e la conseguente redazione del DVR costituiscono obblighi non delegabili del datore di lavoro. Il processo deve essere svolto con il coinvolgimento delle figure della prevenzione aziendale, tra cui:
• il Responsabile del Servizio di Prevenzione e Protezione (RSPP);
• il medico competente, quando previsto;
• il Rappresentante dei Lavoratori per la Sicurezza (RLS).
Il documento deve inoltre basarsi su un’analisi concreta dei rischi presenti nei luoghi di lavoro, considerando organizzazione, mansioni, attrezzature e ambienti operativi.
Per questo motivo, un aggiornamento completamente automatizzato del DVR tramite software o algoritmi rischierebbe di svuotare il processo di valutazione del suo contenuto sostanziale e della responsabilità che la legge attribuisce al datore di lavoro.
Il ruolo dell’intelligenza artificiale nella sicurezza sul lavoro
Ciò non significa che l’intelligenza artificiale non possa avere un ruolo nella gestione della sicurezza aziendale.
Al contrario, le tecnologie digitali possono rappresentare un importante supporto per:
• analizzare dati relativi a incidenti e near miss;
• individuare pattern di rischio ricorrenti;
• supportare la raccolta di informazioni per la valutazione dei rischi;
• facilitare la redazione di documenti tecnici e checklist.
In questi casi l’IA opera come strumento di supporto decisionale, ma non può sostituire la valutazione tecnica e organizzativa che deve essere svolta dalle figure responsabili della sicurezza.
Il quadro normativo sull’uso dell’IA nel lavoro
Il tema si inserisce in un contesto normativo più ampio legato alla crescente diffusione dell’intelligenza artificiale nei luoghi di lavoro.
A livello europeo, l’AI Act introduce regole per garantire un utilizzo sicuro e trasparente dei sistemi di IA, prevedendo tra l’altro la necessità di mantenere un adeguato livello di supervisione umana sui processi decisionali automatizzati.
Anche in Italia il legislatore e le istituzioni stanno ponendo attenzione all’impatto delle tecnologie digitali sul lavoro, sottolineando la necessità di garantire sempre il rispetto dei diritti dei lavoratori e delle norme sulla sicurezza.
Cosa devono fare le aziende
Alla luce di queste indicazioni, le imprese che utilizzano strumenti digitali per la gestione della sicurezza dovrebbero adottare alcune cautele:
• utilizzare software e strumenti di IA solo come supporto alla valutazione dei rischi;
• verificare sempre i contenuti prodotti dagli strumenti automatizzati;
• mantenere il controllo del processo decisionale in capo alle figure aziendali competenti;
• assicurare che il DVR rifletta effettivamente le condizioni operative dell’azienda.
Tecnologia sì, ma con responsabilità
L’intelligenza artificiale può rappresentare un alleato importante nella prevenzione degli infortuni e nella gestione della sicurezza sul lavoro. Tuttavia, la responsabilità della valutazione dei rischi resta sempre umana e non può essere delegata a un algoritmo.
Il richiamo del Ministero del Lavoro va quindi letto come un invito a utilizzare le nuove tecnologie con consapevolezza, valorizzandone il potenziale senza perdere di vista i principi fondamentali della normativa sulla sicurezza.





