Intelligenza artificiale e rapporto di agenzia

Share

Intelligenza artificiale e rapporto di agenzia: brevi cenni di inquadramento normativo

di Ennio Piovesani, Avvocato specialista in diritto internazionale

Nell’ambito della disciplina del rapporto di agenzia inizia a svilupparsi un nuovo filone di riflessione, che trova particolare eco negli ambienti sindacali della categoria degli agenti: quello relativo all’impatto dell’intelligenza artificiale (IA) sull’attività degli agenti e, più in generale, sul loro rapporto con i preponenti. Da un lato, gli osservatori più entusiasti mettono in luce le potenzialità dell’IA quale strumento per incrementare efficienza e profitti; dall’altro, un orientamento ben più diffuso manifesta timori circa la possibile capacità sostitutiva dell’agente umano. In questo dibattito spesso polarizzato, gli aspetti giuridici restano tuttavia ancora inesplorati. In tale contesto si offre una sintetica ricognizione delle questioni che potrebbero emergere alla luce della pertinente disciplina normativa e, in particolare, del Regolamento (UE) 2024/1689 sull’intelligenza artificiale (AI Act) e della recente Legge 23 settembre 2025, n. 132 recante disposizioni e deleghe al Governo in materia di intelligenza artificiale.

A titolo esemplificativo, si immagini il caso di un preponente che gestisce la rete agenziale attraverso un software gestionale integrato con un sistema di IA, in grado di accertare il mancato raggiungimento dei certi obiettivi, valutare le possibilità per l’agente di rimediare e, in caso di esito negativo, generare e trasmettere automaticamente all’agente stesso la comunicazione di recesso. Una simile fattispecie ricade nel campo di applicazione della disciplina normativa sull’IA? E, in caso affermativo, quali obblighi potrebbero sorgere in capo al preponente che si avvale di sistemi di IA per adottare decisioni incidenti sul rapporto di agenzia?

Per rispondere a tali interrogativi, occorre innanzitutto rilevare che l’AI Act si applica anche alla persona fisica o giuridica stabilita nell’UE che utilizza un sistema di IA ad alto rischio. Tra questi rientrano, ad esempio, i sistemi impiegati per l’adozione di decisioni che incidono sul rapporto di lavoro non solo subordinato, ma, in linea di principio, anche autonomo. Alla luce di quanto precede, il preponente che impieghi un sistema di IA per adottare decisioni incidenti sul rapporto con l’agente-lavoratore autonomo potrebbe essere sottoposto ad obblighi quali: l’adozione di misure tecniche e organizzative adeguate; l’assicurazione di un’adeguata supervisione umana; il controllo della qualità dei dati di input; nonché il monitoraggio del funzionamento del sistema e la notifica delle anomalie. Inoltre, il preponente potrebbe essere sottoposto all’ulteriore obbligo di informare l’agente-lavoratore autonomo circa l’utilizzo di un sistema di IA ad alto rischio nelle decisioni che lo riguardano. In effetti, anche la disciplina nazionale di cui alla L. 132/2025 impone simili obblighi informativi in capo al committente – rectius, preponente – ed in favore dell’agente-lavoratore autonomo (che eserciti la propria attività in via prevalentemente personale). Le conseguenze previste per la violazione delle obbligazioni in questione sono particolarmente significative: l’AI Act prevede anche sanzioni amministrative fino a 15.000 euro e, se il trasgressore è un’impresa, fino al 3% del fatturato mondiale totale annuo, se superiore.

In conclusione, al di là delle semplificazioni talvolta presenti nel dibattito sull’incidenza dell’IA sul rapporto di agenzia, appare opportuno approfondire le possibili ricadute sotto il profilo normativo. I preponenti che ricorrono a sistemi di IA dovrebbero valutare con cura gli adempimenti connessi. Parallelamente, per gli agenti è sempre più importante acquisire piena consapevolezza dei diritti informativi e delle altre garanzie che l’ordinamento tende progressivamente a riconoscere a chi è esposto a processi decisionali automatizzati incidenti sulla propria attività professionale. In un contesto tecnologico e normativo in continua evoluzione, diventa quindi essenziale avvalersi di una consulenza legale, preventiva e qualificata, al fine di valutare correttamente obblighi, diritti e rischi connessi all’uso di sistemi di IA nell’ambito del rapporto di agenzia.

 

condividi su:

Immagine di La Redazione
La Redazione

Leggi anche

Vuoi ricevere le nostre ultime news? Iscriviti alla newsletter per rimanere sempre aggiornato

ARTICOLI PIÙ LETTI
ULTIMI ARTICOLI