💡 IL PUNTO DI VISTA DI CLAUDIO DELAINI
Il 10 ottobre 2025 è entrata ufficialmente in vigore la legge 132/2025, che introduce obblighi stringenti per chi utilizza l’intelligenza artificiale nell’ambito della sicurezza sul lavoro. Due articoli in particolare stanno creando non pochi mal di pancia a chi, come me, lavora tutti i giorni con questi strumenti:
-
- Articolo 11: l’IA utilizzata in ambito lavorativo deve essere “sicura, affidabile, trasparente”
-
- Articolo 13: tutti gli operatori che svolgono professioni intellettuali – RSPP, consulenti, tecnici – devono comunicare ai clienti l’eventuale utilizzo dell’intelligenza artificiale
Sulla carta sembra tutto chiaro. Nella pratica? È un disastro.
Come diavolo faccio a dire che l’IA è “sicura, affidabile, trasparente” quando è una tecnologia che non controllo? Quando mi appoggio a un’applicazione di cui non so neanche come funziona l’algoritmo? Quando i server sono all’estero e non ho modo di valutare il rischio perché non mi ridanno le informazioni?
Io stesso, per adempiere all’obbligo di comunicare l’uso dell’IA, l’ho infilata nelle condizioni generali di vendita che, diciamoci la verità, non legge nessuno.
Perché? Per evitare domande scomode tipo: “Ma nel tuo lavoro dove la usi esattamente?”.
I miei clienti comunque lo sanno – uso un registratore che trascrive i dialoghi che avvengono durante i sopralluoghi, e l’intelligenza artificiale mi aiuta a riscrivere, a impaginare, a fare le mappe mentali.
Ma il punto è: posso davvero garantire che lo strumento sia sicuro, affidabile e trasparente?
La risposta è no, non del tutto. E questo articolo nasce proprio per raccontare perché.
La domanda a cui nessuno sa rispondere
Facciamo un passo indietro. L’articolo 11 dice che l’intelligenza artificiale deve essere “sicura, affidabile, trasparente”. Bene. Ma cosa significa concretamente?
Significa che io, consulente per la sicurezza, dovrei essere in grado di garantire che:
-
- Il software non commetterà errori che mettano a rischio le persone;
-
- Le risposte che fornisce sono sempre corrette e verificabili;
-
- Posso spiegare al cliente come funziona il processo decisionale dell’IA.
Il problema è che non posso garantire nessuna di queste tre cose.
Di fatto, l’intelligenza artificiale che uso – ChatGPT, DeepSeek, Gemini, Claude o qualunque sia – è una scatola nera. Non so esattamente come elabora le informazioni e non controllo su quali dati è stata addestrata. E allora come faccio a dichiarare senza ombra di dubbio che è “sicura, affidabile, trasparente”?
Leggi anche: Intelligenza artificiale e responsabilità giuridiche: sfide e normative in evoluzione
Tra la legge e la pratica: il racconto di tre casi reali
Tu racconto tre situazioni con cui ho avuto a che fare direttamente negli ultimi mesi o che mi sono state raccontate da colleghi che lavorano nel mondo della sicurezza. Parliamo sempre di situazioni concrete successe nelle fabbriche, dove l’intelligenza artificiale è già diventata uno strumento indispensabile, ma dove la validazione risulta a volte molto difficile.
Caso 1: Il macchinario cinese
Arriva in un’azienda un macchinario proveniente dalla Cina. Ci sono due tecnici mandati dal produttore del macchinario: uno parla un po’ di inglese, uno non lo parla affatto. Barriera linguistica totale.
Bisogna spiegare ai tecnici cinesi come sistemare la macchina per renderla conforme alla nostra legislazione italiana, per renderla idonea e adeguata all’uso in quella fabbrica specifica.
Il problema? Il responsabile della sicurezza dell’azienda parla inglese, ma i termini tecnici e specifici della sicurezza non li conosce tutti in inglese. I tecnici cinesi li sanno ancora meno. Alcuni li sa uno, altri li sanno gli altri. È un puzzle impossibile.
La soluzione che viene messa in campo? DeepSeek, l’applicazione cinese di intelligenza artificiale. L’RSPP parla in italiano e dice “traduci questo testo”. Il software traduce in cinese, i tecnici leggono in cinese. Abolito il muro linguistico. Problema risolto.
O no?
Eh, no. Perché l’RSPP non sa esattamente come le sue parole sono state tradotte. Quindi, ad esempio, non ha idea se DeepSeek ha reso correttamente il concetto di “idonea e adeguata” secondo l’articolo 71 del D.Lgs. 81/08, o se ha spiegato bene la differenza tra “conforme CE” e “sicura per questo specifico uso”. Si aiuta con le immagini, certo, ma non c’è un’evidenza oggettiva che i tecnici cinesi abbiano compreso esattamente quello che intendeva dire.
E qui nasce il problema dell’articolo 11 della legge: in un caso come questo, come si può garantire che l’IA usata per comunicare istruzioni di sicurezza sia “affidabile”? Se si stanno dando indicazioni su come sistemare una macchina per evitare infortuni e la traduzione è sbagliata, chi è responsabile? Come faccio a validare un’informazione quando non conosco la lingua di arrivo?
Certo, si potrebbe trovare un traduttore che controlli. Ma, tanto per iniziare, non è semplice trovare un traduttore italiano-cinese che conosca le sfumature tecniche del linguaggio della sicurezza e dei macchinari. E poi il traduttore deve essere disponibile nel momento in cui arrivano i tecnici cinesi… insomma, incastrare tutto non è sempre semplice. Così finisce che molti si affidano all’intelligenza artificiale senza porsi altri problemi.
Caso 2: La trattativa con il costruttore tedesco
Secondo caso. Costruttore tedesco, europeo. Dovrebbe essere più semplice, vero? Invece no.
I tecnici erano di più, ma la barriera linguistica restava. Non c’erano interpreti specializzati, non si parlava fluentemente una lingua tecnica comune.
La macchina era conforme alla marcatura CE. Tutto bene sulla carta. Ma, a mio parere, il macchinario non era idoneo e adeguato per quella stamperia di metalli specifica. Si trattava infatti di una stamperia per lamiere dove gli operai devono mettere le mani vicino agli organi di movimento – lo devono fare, altrimenti non vedono abbastanza bene il prodotto che esce. Insomma, dovevamo negoziare le modifiche necessarie che tenessero conto della specificità della situazione.
E la traduzione? ChatGPT. Io traducevo in tedesco i punti critici, loro traducevano in italiano le loro obiezioni.
Ma concetti come “idonea e adeguata” – fondamentali nel Testo Unico – hanno un mondo di significati per noi. Per l’intelligenza artificiale sono solo parole. L’algoritmo elabora termini, non concetti contestuali. Le sfumature legali e tecniche si perdono nella traduzione statistica.
Come posso garantire che ChatGPT abbia reso correttamente sfumature che fanno la differenza tra una macchina sicura e una pericolosa?
Caso 3: La formazione agli operai pakistani
Terzo caso, forse il più delicato.
Azienda dove tutti gli operai sono pakistani, e tra loro parlano in urdu. Il formatore della sicurezza è italiano e naturalmente non parla l’urdo.
Si sceglie allora uno degli operai per fare da traduttore. Problema: l’operaio pakistano che fa da traduttore non sa benissimo l’italiano – o, quanto meno, non la lingua tecnica della sicurezza. Anche qui si usa un software di intelligenza artificiale per tradurre dall’italiano all’urdu.
E cosa si doveva insegnare? A non arrampicarsi su 7-8 pallet impilati per scaricare cassette di frutta, perché c’era stato un infortunio.
Sembra semplice, vero? Ma come traduce l’app non lo sappiamo. Non abbiamo certezza di come viene percepito il concetto di “rischio grave”. Oltretutto molti operatori o datori di lavoro stranieri – lo dico senza giudizio, è un dato che ho riscontrato in molte fabbriche – non credono che la legge italiana possa davvero colpirli. Il procedimento penale è talmente lento che non lo prendono sul serio.
Anche in questo caso, l’intelligenza artificiale ha aiutato a superare la barriera linguistica. Ma possiamo essere sicuri che il messaggio sulla sicurezza sia stato davvero compreso nella sua gravità?
Affidabilità dell’intelligenza artificiale: il paradosso dell’articolo 11
L’articolo 11 della legge 132/2025 dice come abbiamo visto, che l’IA deve essere “affidabile”. Ma affidabile su cosa?
Possiamo essere abbastanza certi che traduca correttamente le parole? Probabilmente sì. Ma del fatto che renda correttamente i concetti di sicurezza, con tutte le loro sfumature tecniche e legali? Non ne ho la minima idea.
Il fatto che io insegni una procedura di sicurezza attraverso una traduzione automatica dovrebbe garantire che i lavoratori operino in sicurezza. Ma quella procedura la devono comprendere profondamente, non solo capire le parole.
E la barriera linguistica è un problema che incontri dappertutto: nelle fonderie, nelle acciaierie, nelle forge, nel tessile, nell’agroalimentare. C’è ovunque.
Come faccio a garantire che l’IA usata per comunicare sicurezza rispetti i requisiti di legge quando non conosco la lingua di arrivo?
È realistico pensare di avere sempre a disposizione un traduttore esperto della materia? Probabilmente no.
In realtà, il solo fatto di avere a disposizione l’IA aiuta a comunicare con partner commerciali (e, ancor di più, con operai) con cui prima avevamo una barriera linguistica insormontabile. Ma il fatto che la comunicazione sia più semplice non significa che sia perfetta, o che convogli completamente il significato desiderato. E, sicuramente, è difficile rispettare il requisito della nuova legge che vorrebbe far garantire un’affidabilità e una sicurezza totali.
Obbligo di trasparenza: come gestire la comunicazione con clienti e partner (articolo 13)
L’articolo 13 obbliga chi svolge professioni intellettuali a comunicare a clienti e partenr commerciali se usiamo l’intelligenza artificiale, e a farlo “con linguaggio chiaro, semplice ed esaustivo”. Nel campo della sicurezza, questo obbligo invesre consulenti come me, RSPP e tecnici, che potrebbero farsi aiutare dall’IA per registrare, organizzare o stendere documenti tecnici.
Bene. Ma cosa dobbiamo scrivere, concretamente?
Secondo me le possibilità sono sostanzialmente queste:
Opzione 1 – Usare una clausola generica (quello che ho fatto io finora)
“Il sottoscritto si avvale di strumenti di intelligenza artificiale per ottimizzare alcune fasi del lavoro.”
Pro: risponde formalmente all’obbligo. Contro: non dice nulla di sostanziale. È conformità burocratica, ma vuota.
Opzione 2 – Dichiarazione specifica
“Utilizzo ChatGPT per riscrivere parti del documento, DeepSeek per traduzioni tecniche, Claude per mappe mentali e sintesi”
Pro: è trasparente. Contro: apre la strada a domande scomode. “Ma allora perché ti pago se lo fa l’IA?” “Come garantisci che sia corretto?”
Opzione 3 – Comunicazione con limiti espliciti
“Utilizzo IA per [specificare attività]. Ogni output viene validato da me prima della consegna. Margine di errore: non quantificabile. Responsabilità finale: mia.”
Pro: onestà intellettuale, responsabilità chiara. Contro: richiede coraggio. Pochi lo fanno.
La strada realistica: certificare il processo, non il software
Dopo settimane a ragionare su questo problema, sono arrivato a una conclusione scomoda ma realistica.
Non posso garantire che l’IA sia sicura, affidabile e trasparente nel senso assoluto che sembra richiedere la legge. Questo perché, banalmente, non posso aprire ChatGPT e verificare riga per riga del codice sorgente cosa fa, non posso controllare i server di OpenAI e non posso sapere se DeepSeek traduce perfettamente i concetti di sicurezza in cinese.
Ma posso garantire che il processo di validazione è serio.
Di fatto, possiamo dichiarare al cliente cose come:
-
- “Uso l’IA per velocizzare alcune fasi, ma controllo sempre l’output”
-
- “Ogni procedura generata dall’IA viene validata verificando la fattibilità in fabbrica”
-
- “Le traduzioni vengono verificate con foto, video, simulazioni”
-
- “Se ho dubbi sulla correttezza, faccio verifiche incrociate”
Di fatto, non stiamo certificando il software, ma come lo usiamo noi.
Conclusione: siamo tutti nel Far West
Dal 10 ottobre 2025 abbiamo un obbligo di legge. Ma siamo ancora nel Far West rispetto all’interpretazione pratica.
Nessuno sa esattamente:
-
- Cosa scrivere nella comunicazione ai clienti;
-
- Come dimostrare che l’IA è “affidabile”;
-
- Cosa succede se l’IA sbaglia e qualcuno si fa male (ne ho parlato qui)
-
- Di chi è la responsabilità: del consulente, del fornitore dell’IA, del cliente che ha usato il documento
La mia soluzione? Trasparenza sui limiti e documentazione del processo.
Dire al cliente: “Uso questi strumenti, per queste cose, con questa validazione. Non posso garantire che il software sia perfetto, ma posso garantire che io ci metto la faccia su ogni cosa che ti consegno.”
Non è la risposta definitiva. Ma è l’approccio più onesto che ho trovato.
E voi? Come state gestendo l’obbligo di comunicazione? Avete trovato soluzioni migliori?
