AI: il valore del giudizio umano

Share

L’intelligenza artificiale e il dovere di saperne fare a meno

di Simone Strocchi – Presidente di Electa Ventures

L’intelligenza artificiale è senza dubbio una delle rivoluzioni tecnologiche più importanti del nostro tempo. È uno straordinario abilitatore e in molti ambiti – dall’economia alla medicina, dalla ricerca scientifica all’industria – può aumentare enormemente la qualità e la velocità del lavoro umano. Ma proprio per questo la questione decisiva non è quanto l’intelligenza artificiale sia potente, ma chi mantiene il giudizio. Le decisioni devono restare umane. L’AI può elaborare dati, individuare correlazioni, costruire scenari probabilistici. Ma il significato di quei dati, la responsabilità delle scelte e la valutazione delle conseguenze restano inevitabilmente umane. E perché questo resti vero, occorre una condizione spesso trascurata: non dobbiamo diventare dipendenti dall’intelligenza artificiale.

Il rischio non è la tecnologia in sé, ma l’abitudine. Ogni tecnologia che diventa troppo comoda può trasformarsi in dipendenza. E ciò che oggi otteniamo con un click, sappiamo che con un click ci può anche essere tolto — o reso indisponibile, o controllato da altri. Questo tema è ancora più rilevante quando gli strumenti di AI non sono nelle nostre mani, ma sono concessi da terzi, ospitati su infrastrutture che non controlliamo e governati da soggetti che possono modificarne accesso, condizioni o capacità. Affidare completamente il nostro processo valutativo e decisionale a sistemi esterni significherebbe correre un rischio silenzioso: quello di perdere progressivamente le nostre capacità di ragionare, di documentarci, di interpretare, di calcolare e di dedurre. Non sarebbe la prima volta nella storia della tecnologia.

In Marina Militare lo sanno bene. Ancora oggi gli allievi delle Accademie Navali studiano le effemeridi e imparano a determinare il punto nave con il sestante. Non perché il GPS non esista, ma proprio perché esiste. Quando le condizioni diventano ostili bisogna sapersi orientare senza elettronica, senza satelliti, senza sistemi digitali che emettono e ricevono segnali esponendo l’unità a rischi. Il Gps, quindi, è uno strumento straordinario, ma la sicurezza della navigazione non deve dipendere dal gps; in plancia devono esserci capacità di sapere dove si è e di determinare dove si sta andando, anche senza il supporto satellitare.

Ecco che il vero equilibrio non sta nel sostituire l’intelligenza umana con quella artificiale, ma nel rafforzare l’intelligenza umana grazie a quella artificiale, senza perdere la capacità di farne a meno. In fondo, il progresso tecnologico non dovrebbe mai ridurre la nostra autonomia. Dovrebbe aumentarla. La tecnologia è una straordinaria alleata, ma la vera sicurezza nasce dal sapere navigare anche quando si spegne.

Per la mia esperienza nel campo degli investimenti, l’intelligenza artificiale rappresenta senza dubbio un abilitatore straordinario: accelera la comprensione delle situazioni, amplia la capacità di analisi comparativa tra peer, rafforza gli strumenti statistici — anche predittivi — e consente una lettura più rapida e profonda di contesti complessi. In questo senso, è uno strumento che può migliorare significativamente la qualità del processo decisionale, ma la decisione di investimento non è mai solo il risultato di un’elaborazione quantitativa. È un atto che implica giudizio, visione, assunzione di responsabilità e capacità di leggere anche ciò che non è immediatamente codificabile nei dati. Delegare questo processo a sistemi esterni significherebbe introdurre una forma di eterodirezione che, nel tempo, rischia di produrre effetti distorsivi profondi.

I mercati finanziari lo insegnano da sempre: quando grandi masse di capitale si muovono in modo omogeneo, si generano inevitabilmente bolle e, simmetricamente, si scavano fossati sempre più profondi nelle fasi di uscita. In uno scenario in cui le decisioni fossero sempre più guidate da modelli simili o addirittura identici, il rischio sarebbe quello di amplificare queste dinamiche. La distinzione tra vincitori e perdenti finirebbe per dipendere quasi esclusivamente dalla velocità — essere primi ad entrare o primi ad uscire — più che dalla qualità dell’analisi o dalla solidità delle scelte.

Portando questo ragionamento all’estremo, si può immaginare un sistema in cui il ciclo decisionale si comprime fino quasi a coincidere in un unico istante collettivo: un movimento simultaneo, sincronizzato, che assomiglia più a una forma di dirigismo implicito che a un mercato. Un esito che non solo è innaturale, ma che rischia di essere profondamente dannoso per l’economia reale, perché riduce la diversità delle scelte, comprime il ruolo dell’imprenditorialità e indebolisce il legame tra capitale e valore industriale.

Per questo, anche nel mondo degli investimenti, il punto non è limitare l’uso dell’intelligenza artificiale, ma preservare la centralità della decisione umana. L’AI può — e deve — rendere gli investitori più informati, più rapidi, più consapevoli. Ma la scelta finale deve restare un atto individuale, fondato su responsabilità, esperienza e capacità di visione perché, soprattutto nei mercati, la qualità delle decisioni nasce dalla libertà e dalla pluralità degli sguardi — non dalla loro omologazione.

condividi su:

Immagine di La Redazione
La Redazione

Leggi anche

TOPIC

Vuoi ricevere le nostre ultime news? Iscriviti alla newsletter per rimanere sempre aggiornato

ARTICOLI PIÙ LETTI
ULTIMI ARTICOLI