Intelligenza artificiale e responsabilità giuridiche. Le normative e le sfide in evoluzione. | Certificazionece

Intelligenza artificiale e responsabilità giuridiche: sfide e normative in evoluzione

In questi ultimi mesi si sta parlando molto di intelligenza artificiale in relazione ai macchinari industriali. Da un lato, infatti, l’IA sta entrando in modo massiccio nel mondo delle fabbriche, e oggi ci si trova sempre più spesso ad avere a che fare con nuovi macchinari che utilizzano una qualche forma di intelligenza artificiale più o meno complessa. Allo stesso tempo stiamo anche assistendo ad un’evoluzione normativa, legata in particolare al regolamento sull’intelligenza artificiale (AI Act) approvato di recente dall’Unione Europea.

Ho provato a parlare con Silvia Zanon, avvocato d’impresa, di quali possono essere le responsabilità giuridiche legate all’uso dell’intelligenza artificiale nell’industria. Ne sono nate riflessioni molto interessanti, che provo ad esporre in questo articolo.

Potrebbe interessarti anche: AI Act e macchinari industriali: come si applica il regolamento sull’intelligenza artificiale al mondo delle fabbriche?

AI Act e normativa sull’intelligenza artificiale: uno scenario ancora in evoluzione

Il panorama normativo sull’intelligenza artificiale è ancora in piena trasformazione. L’AI Act, il regolamento europeo sull’intelligenza artificiale, rappresenta il primo passo concreto in questa direzione.

Sebbene sia già stato varato, l’AI Act ha bisogno di ulteriori norme attuative per poter diventare pienamente operativo. Innanzitutto il nuovo regolamento lascia diverse “aree grigie” su come trattare le tipologie di intelligenze artificiali più semplici, quelle che vengono effettivamente utilizzate nelle fabbriche o dagli oggetti di uso quotidiano – la lavatrice intelligente che sceglie il programma di lavaggio migliore, l’aspirapolvere che si muove da solo e riconosce gli spigoli, eccetera.

[Di questo abbiamo parlato a lungo nell’articolo su AI Act e macchinari industriali ]

Un altro aspetto ancora pienamente da definire riguarda proprio le responsabilità giuridiche sui danni causati dall’intelligenza artificiale. Un esempio emblematico è quello delle auto a guida autonoma: se un veicolo investe un pedone, chi è responsabile? Il guidatore (che non guida), il produttore del sistema di intelligenza artificiale o la casa automobilistica?

Queste domande etiche e legali non hanno ancora risposte definitive. Con Avv. Silvia Zuanon abbiamo tuttavia provato a rispondere, appoggiandoci all’attuale normativa in essere.

L'AI ACT e le normative. | Certificazionece

Intelligenza artificiale: chi è giuridicamente responsabile in caso di errore?

Proviamo a dipingere uno scenario concreto.

Siamo in una fabbrica, e il manutentore utilizza un chatbot che gli suggerisce come riparare una valvola. Il sistema fornisce un’informazione imprecisa, qualcuno si fa male.

Di chi è la responsabilità?

Responsabilità del datore di lavoro

Come sempre accade nel nostro ordinamento, il datore di lavoro è in prima linea rispetto alle responsabilità legate ad un infortunio.

Il Testo Unico 81/08 ci ricorda infatti che il datore di lavoro è generalmente responsabile per la salute e sicurezza dei lavoratori, a meno che non possa dimostrare di aver adottato tutte le misure di prevenzione necessarie.

Nel caso specifico di un macchinario che utilizza l’intelligenza artificiale, è responsabilità del datore di lavoro:

  • verificare la sicurezza delle procedure generate dall’IA (la validazione deve quindi essere un passaggio fondamentale e bloccante);
  • effettuare un’adeguata valutazione dei rischi legati all’utilizzo del software di intelligenza artificiale;
  • Prevedere, sulla base dei rischi individuati, di formare i lavoratori all’utilizzo sicuro di quell’intelligenza artificiale.

Nel corso di un processo penale, dunque, il datore di lavoro può escludere la propria responsabilità se riesce a dimostrare di aver implementato tutte le misure di sicurezza e aver fornito la formazione e l’addestramento necessari ad evitare un uso improprio del macchinario da parte del lavoratore.

In linea di massima, insomma, vigono le stesse indicazioni di prevenzione e controllo del rischio che si mettono in atto per qualsiasi altro macchinario industriale.

Responsabilità del lavoratore nell’utilizzo delle tecnologie

In linea con l’orientamento giurisprudenziale in materia di sicurezza sul lavoro, il lavoratore tende ad essere ritenuto responsabile di un incidente o di un infortunio solo se adotta un “comportamento abnorme”, ossia se agisce in maniera imprudente, negligente o in violazione delle istruzioni ricevute.

È fondamentale, quindi, che le aziende forniscano un’adeguata formazione e procedure chiare, documentando le istruzioni fornite nelle sessioni di formazione. In caso contrario, il datore di lavoro può incontrare difficoltà nel dimostrare che il lavoratore ha effettivamente agito in modo contrario alle indicazioni.

Questi principi sono già consolidati nella giurisprudenza della sicurezza sul lavoro. Per il momento non ci sono novità sostanziali, ma la strada resta aperta a ulteriori sviluppi giurisprudenziali o all’introduzione di nuove direttive specifiche.

Responsabilità della software house

Più interessante, forse, è capire che responsabilità assume la software house che sviluppa il sistema di intelligenza artificiale.

Partiamo da una constatazione: le grandi tech company, che solitamente hanno sede negli Stati Uniti, si proteggono inserendo nei contratti solide clausole di esclusione di responsabilità. In pratica, è davvero difficile portare a processo queste multinazionali e riuscire ad ottenere qualcosa, anche se in Europa le normative sulla sicurezza dei prodotti impongono al produttore di rispondere in caso di lesioni o danni derivanti dal malfunzionamento del prodotto, specialmente con danni molto gravi.

Qui però dobbiamo iniziare a parlare delle software house nostrane. Nel contesto europeo, abbiamo infatti molte software house “local” che sviluppano applicazioni personalizzate basate su motori di IA forniti da terze parti (spesso americane).

Riprendendo il nostro esempio di partenza, possiamo supporre che una software house italiana abbia sviluppato il chatbot di assistenza installato nel macchinario. Questo chatbot è basato su uno dei grandi modelli generali di intelligenza artificiale  – chat GTP, Gemini eccetera – sviluppato da aziende con sede negli USA.

Bene, se la software house italiana apporta modifiche rilevanti e sostanziali al sistema di base, la normativa europea prevede che l’azienda italiana diventi equiparabile al produttore, nel senso che ne assume le responsabilità giuridiche.

La software house locale potrà dunque essere considerata responsabile se:

  • il software fornito contiene difetti o errori che lo rendono non conforme alle normative di sicurezza applicabili (es. Regolamento Macchine o standard EN per la sicurezza);
  • la software house non ha fornito una documentazione adeguata o ha omesso di informare l’utilizzatore sui rischi connessi all’uso del software;
  • Il software è stato specificatamente progettato per la macchina e i difetti della procedura sono imputabili al software stesso.

Al contrario, la software house potrebbe escludere una propria responsabilità se riesce a dimostrare di aver rispettato gli obblighi contrattuali, normativi e tecnici o che non aveva il controllo sull’uso improprio o scorretto del software da parte dell’utilizzatore.

Ricapitolando quanto detto finora, quali sono i diversi scenari possibili per quanto riguarda la distribuzione delle responsabilità in un infortunio legato all’uso dell’intelligenza artificiale?

  • La software house può essere considerata responsabile se il danno deriva direttamente da un difetto del software o dalla mancanza di informazioni sui rischi.
  • Il datore di lavoro è considerato responsabile nella maggior parte dei casi per non aver garantito la sicurezza, a meno che dimostri di aver adottato tutte le misure necessarie.
  • Il lavoratore potrebbe essere considerato responsabile solo in casi di dolo o colpa grave, purché non riconducibile a mancanze del datore di lavoro.

Leggi anche: Chatbot e intelligenza artificiale per l’assistenza tecnica dei macchinari industriali

Responsabilità in caso di danni a terzi causati dall’intelligenza artificiale

Un altro punto critico è la questione della responsabilità in caso di danni causati a terzi dall’intelligenza artificiale. Non parliamo necessariamente di una persona che si fa male, ma danni di tipo economico o anche di tipo ambientale.

Come già detto, la regolamentazione attuale è ancora in evoluzione e si attendono direttive europee più specifiche (di cui una proprio su questa tematica) per chiarire ulteriormente la divisione delle responsabilità. Nel frattempo, si applicano i principi giuridici esistenti.

Proviamo ad analizzare insieme le varie casistiche.

Prodotto difettoso

Se il danno è causato da un difetto del prodotto, come ad esempio un algoritmo mal progettato, e l’intelligenza artificiale è integrata in un prodotto, ci potrebbero essere i presupposti per qualificare il prodotto come difettoso.

In questo caso si applica la normativa sulla responsabilità per i prodotti difettosi – la stessa che verrebbe chiamata in causa, se, ad esempio, un telefono esplodesse mentre lo si usa.

Le aziende sono già preparate a questa eventualità, in quanto tutti i produttori di bene fisici sono tenuti a dotarsi di un’assicurazione per la responsabilità civile relativa ai prodotti difettosi.

Utilizzo improprio

Se un’azienda utilizza un sistema di intelligenza artificiale senza seguire le istruzioni del fornitore o senza effettuare una supervisione adeguata, può essere considerata responsabile dei danni da esso causati. Qui entra in gioco, infatti, quel che si diceva prima sulle procedure di validazione e sull’analisi dei rischi da effettuare sul software di IA.

Facciamo un esempio.

Utilizzi un software con un margine d’errore dichiarato dell’80%? Non puoi certo trattarlo come se il margine di errore fosse del 5%! Le procedure di supervisione e controllo devono essere estremamente più severe!

Anche la mancata adozione di misure di prevenzione, prima tra tutte la valutazione dei rischi, può comportare responsabilità – come ci dice la normativa relativa alla sicurezza sul lavoro.

Per aiutarci ad entrare meglio nell’ottica giusta, potrebbe essere utile considerare l’intelligenza artificiale come un qualcosa di intrinsecamente pericoloso.

Per dirlo con un esempio, pensa di essere il gestore di un luna park. All’interno del parco ci sono delle giostre che, per loro natura, comportano dei pericoli. Tu che possiedi il luna park sai benissimo che devi adottare tutte le precauzioni per combattere i rischi, e sai anche che devi essere in grado di dimostrare la tua attività di prevenzione e mitigazione dei rischi in caso di necessità. Lo stesso ragionamento si potrebbe applicare a chi usa in azienda l’intelligenza artificiale.

In questo momento alcune compagnie assicurative si stanno già attivando per offrire polizze specifiche per coprire i rischi legati all’uso dell’intelligenza artificiale. In futuro queste protezioni assicurative potrebbero persino diventare obbligatorie, seguendo il modello delle assicurazioni su auto e veicoli. Tutto questo, però, solo il tempo potrà dircelo.

Responsabilità dell’AI e contratti: attenzione alle clausole

Partiamo da una constatazione: l’intelligenza artificiale si basa sull’analisi statistica di grandi volumi di dati. Tuttavia, quando i dati a disposizione sono insufficienti, emergono rischi significativi. Penso soprattutto a settori come l’oil and gas, dove errori nei piani di manutenzione gestiti dalle AI possono causare disastri ambientali (ed economici).

Il problema è che in molti casi i fornitori di soluzioni AI promettono risultati eccezionali, ma non dichiarano esplicitamente i limiti dei loro sistemi – perlomeno non nella fase di proposta commerciale.

Questi limiti, però, inficiano sulla capacità predittiva delle IA, e potrebbero portare a danni imprevedibili, mettendo a rischio chi ha adottato la soluzione.

Ecco perché chi adotta soluzioni di intelligenza artificiale in azienda deve prestare molta attenzione ai contratti, in particolare alle clausole contrattuali che le software house inseriscono per escludere la loro responsabilità in caso di danni. Queste clausole sono spesso difficili da eliminare o negoziare, soprattutto se il fornitore è di grandi dimensioni e ha un forte potere contrattuale.

In alcuni casi, le clausole di limitazione di responsabilità vengono esplicitamente indicate come clausole vessatorie. Sono, tipicamente, quelle poste in fondo al contratto, scritte in piccolo…

Ecco, io dico sempre di leggere i contratti di vendita integralmente e con attenzione. Ma, se proprio non lo vuoi fare, almeno leggiti bene le clausole vessatorie!!

Per concludere

Ci troviamo in un’epoca di transizione, una terra di mezzo in cui le normative specifiche sull’intelligenza artificiale, come l’AI Act, sono ancora in via di sviluppo. Nonostante ciò, le aziende possono trovare dei punti di riferimento nelle norme già presenti: la legislazione sulla sicurezza del lavoro, le norme del codice civile o la legislazione sulla responsabilità per prodotti difettosi.

È evidente, tuttavia, che è necessaria una regolamentazione più chiara, che definisca in modo univoco responsabilità e requisiti di sicurezza per i sistemi di AI. Speriamo che le norme su cui si sta lavorando a livello europeo possano venirci in aiuto in questo senso.

Nel frattempo, come dovrebbero muoversi le imprese? Tre sono, a mio parere, i punti chiave:

  • valutazione attenta dei rischi legati all’IA e impostazione di procedure per gestire o limitare tali rischi;
  • controllo accurato dei contratti di vendita per capire esattamente le responsabilità che si assumono;
  • valutazione di coperture assicurative per gestire eventuali danni a cose e persone.

Solo attraverso un’attenta gestione di questi punti sarà possibile sfruttare appieno le potenzialità dell’intelligenza artificiale, minimizzando i rischi legali e operativi.

Un macchinario ti sta causando problemi?
Documentazione, conformità, installazione, modifiche.

Pensiamo a tutto noi

Dichiaro di aver letto e compreso la Privacy Policy.*

Hai trovato interessante questo articolo?
Condividilo con i tuoi contatti!