Intelligenza artificiale e professioni regolamentate

Share

Intelligenza artificiale e professioni regolamentate: novità normative e giurisprudenziali negli Stati Uniti

Un contenzioso recentemente promosso da Nippon Life Insurance Co. of America (“Nippon”) nei confronti di Open AI ha riaperto il dibattito sugli effetti che l’utilizzo dell’intelligenza artificiale generativa (“IA”) può produrre quando impiegata nell’ambito delle professioni intellettuali e regolate dall’iscrizione ad albi.

Il presente articolo, muovendo dall’analisi della suddetta fattispecie, esamina le principali criticità connesse all’impiego di sistemi di intelligenza artificiale nelle professioni regolamentate, ripercorrendo l’evoluzione più recente della giurisprudenza e della normativa statunitense e formulando alcune considerazioni generali sui limiti e sui rischi oggettivi propri degli LLM.

Nippon Life Insurance Co. of America v. OpenAI (2026)

La vicenda trae origine da un contenzioso promosso nel 2021 dalla sig.ra Graciela Dela Torre nei confronti di Nippon, avente ad oggetto una richiesta di risarcimento del danno conseguente alle malattie che parte attrice, dipendente della compagnia assicurativa, asseriva di aver sviluppato in costanza di rapporto di lavoro. Dopo circa 3 anni dall’inizio del giudizio, le parti conclusero un accordo transattivo, con il quale l’assicurata rinunciò, tra l’altro, a ogni futura pretesa risarcitoria nei confronti della compagnia assicurativa. A distanza di un anno dalla conclusione della transazione, la sig.ra Dela Torre ricontattò il proprio avvocato per valutare la possibilità di impugnare l’accordo. Avendo ricevuto una risposta negativa del proprio legale, la sig.ra Dela Torre sottopose il medesimo quesito a ChatGPT, ottenendo una risposta diversa. Secondo la prospettazione avanzata, ChatGPT avrebbe affermato che il legale della sig.ra Dela Torre si sarebbe sbagliato e avrebbe indotto l’utente ad impugnare la transazione. Confortata dalle risposte ricevute, la sig.ra Dela Torre si fece assistere da ChatGPT nella ricerca giuridica, nella formulazione di argomenti ex Rule 60(b) FRCP e nella redazione di istanze, atti di citazione e altri atti processuali per riaprire la controversia già definita. Al momento del contenzioso promosso contro OpenAI, la sig.ra Dela Torre aveva presentato pro se numerose istanze redatte con ChatGPT. Nippon ha contestato a OpenAI di aver fornito alla sig.ra Dela Torre lo strumento che ha reso possibile, facilitato e amplificato alcuni illeciti, quali unauthorized practice of law (UPL), tortious interference with a contract e abuse of process. L’argomento centrale e più sofisticato del contenzioso è che OpenAI non ha costruito alcun sistema di rifiuto per le richieste di consulenza legale personalizzata.

Già in passato, negli Stati Uniti erano stati promossi numerosi contenziosi contro fornitori di servizi legali ritenuti responsabili di esercizio abusivo della professione legale (si confronti, al riguardo, tra le altre, Janson v. LegalZoom.com, Inc.; LegalForce RAPC Worldwide, P.C. et al v. LegalZoom.Com, Inc. et al, MillerKing LLC v. DoNotPay, Inc.; Faridian v. DoNotPay, Inc.; FTC v. DoNotPay); Nippon Life Insurance Co. of America v. OpenAI, costituisce, tuttavia, il primo tentativo di estendere la responsabilità per UPL nei confronti di uno sviluppatore di IA. Ancorché i termini di servizio dei principali LLM proibiscano espressamente agli utenti di affidarsi a loro per consulenze legali, il filone del contenzioso sarà destinato inevitabilmente ad ampliarsi, a mano a mano che l’IA generativa dovesse mantenere o aumentare i servizi di legal self-help.

Estate of Gene B. Lokken et al. v. UnitedHealth Group, Inc. et al. (2023); Kisting-Leung v. Cigna Corp. (2023)

Un’altra professione regolamentata sovente oggetto di consulenza in ambito IA è quella medica. In Estate of Gene B. Lokken et al. v. UnitedHealth Group, Inc. et al., gli eredi di alcuni pazienti ai quali era stata interrotta la copertura medica da parte della compagnia assicurativa sanitaria nazionale, hanno proposto una class action presso il Tribunale federale del Minnesota contestando che l’algoritmo “nH Predict”, utilizzato da UnitedHealth Group per effettuare le relative valutazioni sanitarie, avrebbe ignorato le raccomandazioni dei medici, negando i rimborsi per i soggiorni in strutture riabilitative post-acute a pazienti anziani.

In una fattispecie analoga, Kisting-Leung v. Cigna Corp., la compagnia assicurativa convenuta in giudizio avrebbe fatto ricorso a sistemi algoritmici per negare un numero elevato di richieste di copertura in tempi estremamente rapidi, senza condurre un effettivo esame individuale basato sulle condizioni cliniche dei pazienti. Gli attori hanno argomentato che Cigna avrebbe sviluppato un sistema denominato PxDx, in grado di consentire ai propri medici di rigettare centinaia di migliaia di richieste di rimborso in blocco — senza esaminare i singoli fascicoli clinici — allorché le prestazioni richieste non corrispondessero a determinati criteri prestabiliti, con una media documentata di 1,2 secondi per ciascun diniego. La domanda giudiziale si fonda sulla tesi che tale modalità automatizzata di valutazione sia strutturalmente incompatibile con il dovere contrattuale e di buona fede che l’assicuratore assume nei confronti dell’assicurato, che ha diritto a una valutazione genuinamente individualizzata della propria richiesta. Un tribunale federale della California ha parzialmente accolto le ragioni degli attori, consentendo alla causa di procedere sul merito, con ciò affermando il principio che l’interposizione di un algoritmo tra l’assicuratore e la decisione di copertura non esonera la compagnia dall’obbligo di assicurare una supervisione umana effettiva e non meramente formale.

Un pattern comune emerge da tutti questi casi: le aziende che hanno implementato sistemi di IA per automatizzare decisioni in ambito professionale regolamentato senza adeguata verifica dell’accuratezza e senza supervisione professionale sono esposte a profili di responsabilità emergenti per (1) negligenza nella condotta tenuta, (2) inadempimento contrattuale (quando le decisioni automatizzate contraddicono o violano obblighi assunti), e (3) discriminazione quando gli errori si distribuiscono in modo sistematicamente sfavorevole a gruppi protetti dalla legge.

United States v. Heppner (2025)

In una fattispecie di grande rilevanza nel mondo degli affari, United States v. Heppner, Bradley Heppner, ex presidente di GWG Holdings – società finanziaria dichiarata insolvente – era stato incriminato dalla procura federale per frode sui titoli e frode telematica, false dichiarazioni ai revisori dei conti e falsificazione di documenti aziendali. Nel corso del procedimento penale, Heppner aveva utilizzato il chatbot Claude di Anthropic per elaborare analisi e report relativi alla propria vicenda processuale, con l’intenzione di condividerli con i propri difensori nell’ambito della preparazione della strategia difensiva. Secondo la prospettazione avanzata in giudizio, tali comunicazioni avrebbero dovuto ritenersi protette dal c.d. attorney-client privilege, in quanto prodotte in funzione strumentale rispetto al rapporto professionale con i legali che lo assistevano, nonché dalla work product doctrine.

Il giudice federale Jed Rakoff del Southern District di New York è stato di diverso avviso, respingendo tale tesi e ordinando a Heppner di consegnare alla procura 31 documenti generati con l’ausilio di Claude. Il giudice ha affermato che nessun rapporto privilegiato avvocato-cliente “esiste o potrebbe esistere” tra un utente e una piattaforma di intelligenza artificiale, in quanto i chatbot non sono avvocati, non assumono obblighi di riservatezza professionale e non sono soggetti alle norme deontologiche.

La decisione, resa nel febbraio 2026, ha immediata ricaduta sulla pratica aziendale e professionale: qualsiasi dirigente, manager o consulente che utilizzi chatbot commerciali per elaborare strategie legali, valutare rischi regolamentari o preparare documentazione da trasmettere ai propri avvocati rischia di produrre materiale acquisibile dalla controparte o dall’autorità requirente in qualsiasi procedimento futuro.

Il New York Senate Bill S7263

In ambito normativo, il disegno di legge S7263 del senato di New York, presentato dalla Senatrice Kristen Gonzalez nel 2025, propone di modificare la General Business Law statale aggiungendo la nuova sezione § 390-f, che vieta ai proprietari di chatbot di consentire al sistema di fornire risposte, informazioni o consigli o intraprendere azioni che, se rese da una persona fisica, costituirebbero esercizio abusivo di alcune professioni regolamentate in ambito statale: “[t]his bill would prohibit a chatbot to give substantive responses; information, or advice or take any action which, if taken by a natural person, would constitute unauthorized practice or unauthorized use of a professional title as a crime in relation to professions who licensure is governed by the education law or the judiciary law.(cfr. https://www.nysenate.gov/legislation/bills/2025/S7263).  

La novità – che potrebbe essere seguita anche da altri Stati – è sostanziale e fonte di preoccupazioni anche per gli sviluppatori IA; e ciò non soltanto per le possibili conseguenze che ne discenderebbero a loro carico in termini civili e penali, ma anche in quanto eventuali disclaimer di responsabilità non sarebbero efficaci: il bill, infatti, prevede che “[p]roprietors may not waive or disclaim this liability by notifying consumers that they are interacting with a non-human chatbot system.  A person may bring a civil action to recover damages, and if the proprietor has willfully violated this section, costs, attorney’s fees and other costs of litigation. Proprietors utilizing chatbots shall provide clear, conspicuous and explicit notice to users that they are interacting with an artificial intelligence chatbot program.

Il quadro giurisprudenziale e normativo che emerge dall’analisi condotta mostra la creazione progressiva di una netta linea di demarcazione tra la consulenza automatizzata prestata su materie libere o riservate. Su queste ultime, le limitazioni discusse sembrano essere dettate, oltre che dalla volontà di tutelare l’integrità dei processi e la centralità della funzione giurisdizionale, dalla necessità di tutelare i diritti individuali nelle relazioni tra privati e imprese, con particolare riguardo alle decisioni automatizzate che pregiudicano posizioni giuridiche soggettive rilevanti. Chi fornisce consulenza senza le garanzie proprie della prestazione professionale, produce effetti giuridici concreti — talvolta irreversibili — in assenza di quel controllo umano che richiede giudizio, discrezionalità e responsabilità individuale.

In aggiunta alle ragioni che precedono, che afferiscono alla sfera giuridica del dibattito, sussistono varie considerazioni di ordine pratico e operativo, di seguito illustrate, che differenziano la prestazione del professionista da quella dell’IA.

1. Definizione del problema. Un utente che si affida all’IA per ottenere risposte su una materia di cui non ha conoscenza professionale pone, spesso, domande imprecise o incomplete. Di conseguenza, può ricevere risposte superficiali o fuorvianti, nonché trovarsi nella condizione di non riuscire a valutarle correttamente o a comprenderne appieno i limiti. Il professionista sa definire i problemi nel contesto corretto, distinguendo le circostanze pertinenti da quelle irrilevanti e interpretando la fattispecie in base alle esigenze specifiche del cliente e dei fatti occorsi. L’IA non distingue ciò che è essenziale da ciò che è secondario, generando output standardizzati che possono essere interpretati e adattati adeguatamente soltanto da chi ha una conoscenza adeguata della materia. Tale capacità di personalizzazione crea valore aggiunto e risultati più efficaci rispetto a risposte scevre da contestualizzazione appropriata.

2. Giudizio critico. Il professionista accumula conoscenze attraverso anni di pratica, osservando come determinate situazioni si evolvono e quali strategie sono funzionali alle finalità ricercate. Tale esperienza consente di anticipare problemi, prevedere conseguenze, pianificare azioni alternative e bilanciare vantaggi e svantaggi. L’IA, pur analizzando grandi dataset, non può vivere l’esperienza diretta di casi complessi, né percepire sfumature non codificate nei dati. L’IA è in grado di elaborare dati e generare scenari, ma non possiede un giudizio critico, né la capacità di distinguere quali rischi siano effettivamente rilevanti, urgenti o strategicamente significativi. Non sa bilanciare vantaggi e svantaggi in base a priorità aziendali o di contesto, né può adattare le valutazioni alle dinamiche complesse di un’organizzazione.  

3. Creatività strategica. Gli esseri umani sono capaci di pensiero divergente: possono combinare elementi apparentemente scollegati, inventare soluzioni originali e adattare strategie a circostanze impreviste. Questa creatività è essenziale quando non esistono procedure standard da seguire ed è necessario operare in un settore regolamentato. L’IA produce output basati su schemi e probabilità, senza la capacità di intuizione, giudizio e innovazione che caratterizza il pensiero del professionista.

4. Words have meanings. Il linguaggio non è solo un insieme di parole: ogni termine può avere connotazioni e implicazioni diverse a seconda del contesto di riferimento. Il professionista comprende il senso reale delle parole, le intenzioni sottese e i messaggi impliciti. L’IA interpreta il linguaggio come dati, senza capire la profondità semantica o il contesto culturale. Questo limite può facilmente portare ad errori o a risposte fuori contesto, soprattutto in fattispecie complesse o su materie poco conosciute.

5. The devil is in the detail. I dettagli spesso determinano l’esito di un progetto, di un contratto o di una decisione medica. Il professionista individua e valuta gli aspetti che possono cambiare sostanzialmente l’interpretazione o la strategia da adottare. L’IA può omettere tali sfumature, fornendo soluzioni generiche o superficiali, ignorando la complessità e le specificità di ogni caso, soprattutto se chi la utilizza non ha l’esperienza necessaria per porre le domande giuste.

6. Gestione dei rapporti in tempo reale. Negoziare, mediare o semplicemente interagire con clienti e colleghi richiede empatia, capacità di ascolto e di adattamento immediato. Il professionista può leggere segnali non verbali, modulare il tono e adattare la strategia comunicativa in tempo reale. L’IA non ha percezione sociale, né capacità empatica. Può generare messaggi coerenti, ma non può valutare l’impatto emotivo delle parole o reagire dinamicamente a situazioni interpersonali.

7. Allucinazioni e banche dati giuridiche.  L’IA può generare contenuti formalmente plausibili ma non necessariamente veri (allucinazioni), producendo riferimenti, norme, precedenti o dettagli giuridici inesatti o inesistenti, soprattutto in assenza di un controllo umano qualificato. Il professionista è in grado di consultare fonti ufficiali e documentazione generalmente non accessibile ai sistemi generativi di uso comune, verificandone i contenuti, valutandone criticamente l’attendibilità e contestualizzandole rispetto alla fattispecie concreta. L’IA, al contrario, si limita a una rielaborazione probabilistica dei dati appresi, in assenza di una capacità autonoma di controllo; e anche laddove eventualmente integrata con accesso a banche dati giuridiche specializzate, non è in grado di sostituire il giudizio critico del professionista nella selezione, interpretazione e applicazione delle fonti al caso specifico.

8. Conoscenza dei limiti normativi di utilizzo dell’IA. Un utente non professionale può avvalersi dell’IA senza la conoscenza dei limiti giuridici applicabili al suo utilizzo, esponendosi così al rischio di superare inconsapevolmente i confini di liceità nell’impiego del sistema. Nonostante la presenza di disclaimer, gli LLM non sono in grado di garantire il rispetto dei vincoli normativi che disciplinano il loro utilizzo, né di impedire impieghi non conformi, anche alla luce di normative nazionali, europee e internazionali che disciplinano l’uso dell’IA. Il professionista, conoscendo il quadro normativo applicabile, svolge una funzione di presidio e filtro, evitando che il cliente ponga in essere condotte illecite o comunque non conformi alla normativa applicabile.

Al di là delle implicazioni strettamente giuridiche fin qui esaminate, l’analisi dei casi concreti rivela come le criticità dell’IA nelle professioni regolamentate non siano riconducibili soltanto a lacune normative o a scelte progettuali degli sviluppatori, ma affondino le radici in limiti strutturali e oggettivi dei sistemi generativi; limiti che, alla luce dell’evoluzione normativa in corso — e in particolare dell’approccio adottato dal legislatore newyorkese con il disegno di legge S7263 — potrebbero non trovare mai piena espressione applicativa: laddove simili iniziative dovessero consolidarsi e diffondersi ad altri ordinamenti statali e federali, lo sviluppo dell’IA nelle professioni regolamentate rischierebbe di essere non soltanto limitato, ma strutturalmente precluso ancor prima di raggiungere la maturità tecnologica necessaria.

 

Articolo di Daniele Ferretti, Managing Attorney, Ferretti Firm

 

condividi su:

Immagine di La Redazione
La Redazione

Leggi anche

TOPIC
#Aerospace #Agrifood #Agroalimentare #Ambiente #Arte

Vuoi ricevere le nostre ultime news? Iscriviti alla newsletter per rimanere sempre aggiornato

ARTICOLI PIÙ LETTI
ULTIMI ARTICOLI