Intelligenza artificiale e responsabilità d’impresa

Share

Intelligenza artificiale e responsabilità d’impresa: orientamenti giurisprudenziali

Dopo aver esaminato la più recente evoluzione normativa e giurisprudenziale statunitense in materia di rapporti tra intelligenza artificiale (“IA”) e professioni regolamentate, il presente articolo si sofferma sulle fattispecie principali di rischio e di responsabilità che, al di fuori di tale perimetro, le imprese incorrono allorché si avvalgano di sistemi di IA nella loro operatività.

Come illustrato in prosieguo, infatti, tale utilizzo può generare profili di responsabilità connessi alla violazione dei principi generali del diritto civile, della normativa a tutela dei consumatori e delle disposizioni in materia di protezione dei dati personali, contribuendo allo sviluppo di un contenzioso in continua evoluzione in Nord America. 

Consulenza automatizzata errata e irrilevanza del “velo tecnologico”

Una delle questioni centrali che caratterizza il contenzioso sull’intelligenza artificiale al di fuori delle professioni regolamentate è quella della responsabilità per le informazioni errate veicolate attraverso sistemi automatizzati. La pronuncia resa dal Civil Resolution Tribunal della British Columbia nel caso Moffatt v. Air Canada ha affrontato con particolare chiarezza questa problematica, stabilendo che un’azienda è responsabile per le informazioni errate fornite ai propri clienti attraverso un chatbot automatizzato.

Il tribunale ha rigettato la tesi difensiva secondo cui il chatbot costituirebbe un’entità giuridica separata e autonoma rispetto alla società che lo ha implementato e che lo controlla. Secondo la pronuncia, le aziende non possono invocare il “velo tecnologico” per sottrarsi alla responsabilità per gli errori dei propri strumenti automatizzati: un chatbot non è un’entità autonoma, bensì un’estensione dell’azienda che lo ha scelto, implementato e controlla, ragion per cui qualunque informazione veicolata attraverso quel canale è imputabile all’azienda medesima, con le stesse conseguenze giuridiche di qualsiasi altra dichiarazione aziendale.

La decisione è richiamata in dottrina come esempio di rischio in ambito aziendale: chiunque impieghi un sistema di IA può essere chiamato a rispondere degli output generati da quel sistema, indipendentemente dalla circostanza che le informazioni errate siano state prodotte da un algoritmo e non da un dipendente in carne e ossa.

Il rischio assicurativo nascosto: le esclusioni AI nelle polizze D&O ed E&O

Un profilo di rischio che sta assumendo crescente rilevanza pratica, e che merita particolare attenzione nell’ambito della pianificazione aziendale, è quello relativo alla progressiva modifica delle polizze assicurative. Alcuni operatori hanno iniziato a introdurre clausole che limitano o escludono la copertura per sinistri generati da sistemi di intelligenza artificiale nelle polizze errors & omissions (E&O) e directors & officers (D&O).

Il profilo più critico di tale evoluzione è rappresentato dall’ampiezza con cui alcune esclusioni sono redatte: in taluni casi, i carve-out sono formulati in modo da coprire sia gli errori generati direttamente dall’IA dell’assicurato che quelli riconducibili a partner o fornitori terzi che si avvalgono di tali tecnologie. In tale prospettiva, l’assicurato potrebbe trovarsi esposto a responsabilità non coperte dalle polizze in essere per l’errore compiuto dall’IA.

Gli effetti di questa evoluzione in ambito societariosono rilevanti: i consigli di amministrazione e i comitati di controllo sono chiamati a verificare con attenzione l’adeguatezza delle coperture assicurative in essere, valutando se le esclusioni eventualmente presenti siano compatibili con il profilo di rischio IA della società, tenuto conto degli strumenti interni adottati e di quelli utilizzati dai soggetti terzi con cui l’azienda interagisce.

Tutela dei consumatori: il primo contenzioso statale contro un fornitore di chatbot

Nel gennaio 2026, il Procuratore generale del Kentucky ha promosso un’azione contro una società sviluppatrice di chatbot AI, Character.AI, per pratiche ingannevoli, inclusa la mancata divulgazione dei rischi ai consumatori, con particolare riguardo alla tutela dei minori. Il procedimento, Kentucky Attorney General v. Character Technologies, Inc., è stato promosso ai sensi della legge statale sulla protezione dei consumatori,evidenziando la possibilità che le norme esistenti possano essere applicate alle condotte illecite dei chatbot anche in assenza di una normativa settoriale specificamente dedicata all’intelligenza artificiale.

La vicenda offre una conferma ulteriore di una tendenza in atto: gli strumenti di enforcement preesistenti — leggi antitrust, normative consumeristiche, disciplina della concorrenza sleale — vengono progressivamente adattati per rispondere alle nuove istanze di tutela generate dall’IA.

Tutela della riservatezza e compliance normativa: il fronte delle intercettazioni

L’impiego di sistemi di intelligenza artificiale generativa nelle interazioni con i clienti espone le aziende a un profilo di rischio ulteriore, connesso alla normativa sulla riservatezza delle comunicazioni.

A seguito della decisione del febbraio 2025 nel caso Ambriz v. Google, LLC — con cui il giudice ha respinto la motion to dismiss presentata da Google — si è registrata la promozione di diverse class action nei confronti di società che utilizzano sistemi di IA generativa nelle interazioni con la clientela. I ricorrenti sostengono che questi strumenti possono trascrivere, analizzare e conservare le comunicazioni degli utenti in assenza del consenso richiesto dalla normativa statale in materia di intercettazioni.

Secondo tale prospettazione, il consenso prestato dall’utente nel contattare un’azienda sarebbe riferito a un’interazione con un operatore umano e non includerebbe l’elaborazione automatizzata della conversazione tramite sistemi di intelligenza artificiale. In questo contesto, normative statali, quali il California Invasion of Privacy Act, prevedono sanzioni fino a 5.000 dollari per singola violazione; applicate su larga scala, tali disposizioni possono determinare un’esposizione potenzialmente rilevante per le imprese interessate.

Al di là del profilo strettamente risarcitorio, il contenzioso in materia di intercettazioni solleva una questione di compliance più ampia. Affidarsi all’IA per gestire le interazioni con i clienti espone l’azienda a rischi concreti di non conformità, sia con riferimento alle normative sulla protezione dei dati personali, sia con riguardo a normative di settore che richiedono adempimenti e valutazioni contestualizzate. L’intelligenza artificiale fornisce dati senza essere soggetta a tali obblighi e, soprattutto, senza porsi i relativi interrogativi.

Violazioni di diritti fondamentali: sicurezza pubblica, lavoro e amministrazione

Un filone giurisprudenziale di grande rilievo sistematico è quello che origina da una serie di contenziosi — tra cui Williams v. City of Detroit, Woodruff v. City of Detroit e Mobley v. Workday, Inc. — concernenti l’impiego di sistemi di intelligenza artificiale in ambiti sensibili quali sicurezza pubblica, mercato del lavoro e amministrazione pubblica.

Nel loro insieme, tali controversie mostrano che l’uso di sistemi di IA per automatizzare decisioni può generare pratiche illegittime e discriminatorie, soprattutto quando tali sistemi sostituiscono o prevalgono sulle valutazioni umane. Ne deriva il rischio concreto di violazioni di diritti fondamentali — libertà personale, parità di trattamento, dignità — oltre a profili di responsabilità contrattuale e extracontrattuale, quando gli strumenti automatizzati producono errori sistemici, bias o effetti dannosi distribuiti in maniera sistematicamente sfavorevole a gruppi protetti dalla legge.

Significativo è anche il procedimento FTC v. Rite Aid Corporation, in cui l’autorità federale per la tutela dei consumatori ha contestato l’utilizzo di un sistema di riconoscimento facciale che aveva generato falsi positivi con frequenza sproporzionata a danno di soggetti appartenenti a minoranze etniche. Il quadro che emerge dall’insieme dei casi analizzati indica che il ricorso all’IA non esonera gli operatori dalla responsabilità giuridica per le conseguenze delle decisioni automatizzate, imponendo standard più elevati di trasparenza, controllo e accountability.

Tendenze evolutive del contenzioso e scenari futuri

Il quadro del contenzioso sull’intelligenza artificiale al di fuori delle professioni regolamentate si sta evolvendo lungo tre assi principali, che delineano e anticipano gli sviluppi del dibattito giuridico nei prossimi anni.

In primo luogo, i casi già noti — relativi a compagnie assicurative, processi di selezione del personale e gestione automatizzata dei clienti tramite chatbot — si stanno sviluppando in sede giudiziale, con le prime decisioni sul merito attese tra l’estate e la fine del 2026. Tali pronunce potranno fornire i primi orientamenti rilevanti in ordine a questioni ancora largamente aperte, quali i criteri di imputazione della responsabilità per gli errori dell’IA e il perimetro degli obblighi di supervisione a carico delle organizzazioni.

In secondo luogo, si apre un fronte completamente nuovo, legato alla c.d. agentic AI: sistemi di intelligenza artificiale che prendono decisioni operative autonome — approvazione di ordini, gestione di contratti, risposte a clienti — senza supervisione umana in tempo reale.

In terzo luogo, il fenomeno del c.d. “AI washing” — la pratica di aziende che presentano e commercializzano come “basata sull’IA” tecnologia che non lo è, o che sopravvalutano le capacità dei propri sistemi — sta diventando un filone autonomo di responsabilità per false dichiarazioni commerciali. La FTC ha già segnalato questo ambito come una priorità di enforcement; è ragionevole attendersi, pertanto, un incremento significativo dei procedimenti in materia in futuro.

Considerazioni conclusive

Il quadro giurisprudenziale analizzato in questo articolo — letto congiuntamente a quello esaminato nel precedente contributo sulle professioni regolamentate — restituisce un messaggio univoco: l’adozione dell’intelligenza artificiale non è giuridicamente neutra. L’impiego di questi sistemi in contesti che producono effetti giuridicamente rilevanti — per l’azienda, per i suoi dirigenti, per i consumatori, per i terzi — presuppone una valutazione attenta dei rischi, una governance adeguata, una supervisione umana effettiva e non meramente formale, e la consapevolezza che i principi generali del diritto, anche in assenza di normative specifiche, consentono di allocare responsabilità ai soggetti che ne fanno uso in modo non conforme ai principi giuridici applicabili.

condividi su:

Immagine di Daniele Ferretti
Daniele Ferretti
Avvocato abilitato in Italia e a New York, si occupa di internazionalizzazione aziendale, operazioni cross-border e strategie di espansione nei mercati esteri. È esperto di diritto societario, M&A, contrattualistica d’impresa e global mobility

Leggi anche

TOPIC
#Aerospace #Agrifood #Agroalimentare #Ambiente #Arredamento

Vuoi ricevere le nostre ultime news? Iscriviti alla newsletter per rimanere sempre aggiornato

ARTICOLI PIÙ LETTI
ULTIMI ARTICOLI