• 2 Dicembre 2024

IBM e la Generative AI

 IBM e la Generative AI

Alessandro La Volpe

Generative AI: lo scenario e i fattori che giocano su un margine (ancora) mancante, secondo Alessandro La Volpe, amministratore delegato di IBM Italia

Nel mondo dell’impresa la posta in gioco è alta in fatto di AI. Non è un caso se IBM (sito web), impegnata anch’essa sullo sviluppo di tecnologie per aziende in cui l’AI è ormai il motore fondante, abbia lanciato il prodotto watsonx, ovvero piattaforme diverse di AI e dati per varie soluzioni d’impresa.

Forte anche della sua area consulting160mila consulenti nel mondo e un punto di osservazione privilegiato, l’Institute for Business Value –, la “Big Blue” funge quasi da potente lente d’ingrandimento per scorgere meglio i dettagli di un mondo che cambia con l’intelligenza artificiale generativa. Utile anche per le aziende, piccole, medie o grandi che siano, perché comprendano cosa è oggi prioritario per il mercato, perché prima di decidere di disputare la partita, occorre conoscere le regole e le condizioni del campo di gioco.

«Molte sono le forze che si stanno influenzando a vicenda e stanno definendo il contesto in cui siamo – ci premette Alessandro La Volpe, amministratore delegato IBM Italia, l’ex Vice President Technology del Gruppo, da luglio salito alla carica più alta.

«In primis, ovviamente c’è lo scenario geopolitico, caratterizzato da incertezze. Seconda forza è quella legata al mondo delle tecnologie, lintelligenza artificiale di tipo generativo, quindi la generazione che abbiamo imparato a conoscere da quasi un anno e mezzo insieme alla cybersecurity, fondamentale in tutto ciò che facciamo come il tema del quantum computing. Infine, ovviamente, la sostenibilità, quindi tutto ciò che porta alla transizione verso un mondo più sostenibile. Sono fattori con ondate di attenzione che hanno un andamento un po’ altalenante, ma sono collegati, si influenzano a vicenda». Lo scenario quindi gioca il suo ruolo, ma nell’ambito del mercato italiano c’è anche un’altra questione che prende palla.

«Quando entriamo nel mondo delle aziende – continua La Volpe – la resilienza, quindi la capacità di reagire a uno scenario di incertezza, è fondamentale e questa si basa su due capi saldi. Da una parte le competenze, il punto più importante di cui possiamo dibattere oggi e, dall’altra, l’adozione come opportunità, in questo caso, di generative AI». Una situazione che già vede situazioni di partenza dunque diverse, a diverse velocità, ma che coinvolge e chiede attenzione.

E qui infatti scatta (o dovrebbe scattare) l’azione. Dove? Tendenzialmente nel mondo digitale, il mondo del customer experience, nel mondo dell’integrazione. Tutto ruota attorno a come cogliere l’opportunità dell’AI generativa per avere un vantaggio competitivo di mercato che sembra non voglia ormai lasciar spazio a dubbi. «Sono ormai tanti gli studi che lo dimostrano – dice il neo AD di IBM Italia – e ce lo dicono gli analisti di mercato: da qui al 2030 ci si aspetta un aumento di produttività di 4.400 miliardi, un impatto fondamentale. Se facciamo le proporzioni tra il PIL italiano e il PIL mondiale, circa 90 miliardi sono l’opportunità di aumento di produttività relativa al nostro Paese.

Ma per poter far questo le aziende devono poter cogliere questa opportunità, con una Generative AI che sia aperta, che sia affidabile, che sia scalabile, che abbia uno sguardo importante alla variabile dei costi e alle implicazioni in termini di impatto ambientale». Uno schema di gioco che, solo fino a giugno o luglio scorso, mostrava già per il 45%  le aziende di vari settori d’industria, piccole, medie e grandi, una prima sperimentazione in ambito generativo AI o in ambito AI tradizionale, ma di cui solo per un 10% confluiva in una dimensione profonda e pervasiva di questa tecnologia nei suoi veri processi interni.

Siamo probabilmente ancora in una fase di sperimentazione, ma per avere un’accelerazione in maniera positiva, c’è un percorso di adesione da fare. «Quando entriamo nel mondo aziendale – spiega La Volpe rifacendosi all’approccio del suo Gruppo – ovvero all’interno del vantaggio competitivo che è dato da persone, competenze e dati, meno dell’1% dei dati aziendali è stato utilizzato per addestrare algoritmi di intelligenza artificiale di tipo generativo.

Quindi passiamo dal quasi il 100% a meno dell’1%. Questa è la barriera che, se non viene superata, non può consentire di avere alcuna adesione a un vantaggio competitivo per le aziende. Il mondo dei dati è il mondo da cui partire per addestrare gli algoritmi, i casi d’uso, una piattaforma dati che consenta di fare questo. Dopodiché ci sono i modelli: un modello di AI affidabile, pensato per il mondo dell’impresa. Di recente – continua l’AD abbiamo annunciato la nostra terza generazione di famiglia di modelli sotto il nome di Granite.

Modelli di questo tipo consentono una più rapida adozione dell’intelligenza artificiale, con una performance almeno equivalente a quella di altri modelli, in alcuni casi superiore, con un impatto sui costi fondamentale. O anche modelli più piccoli e dove più veloce è il time to market, vuol dire meno tempi di addestramento, meno costi in termini di AI e in termini di data center che vanno ad alimentare questi modelli. E vuol dire anche meno impatto ambientale, meno emissioni».

Riuscire a identificare, anticipare, riconoscere e anche neutralizzare tutta una serie di potenziali rischi di sicurezza è però un’altra frontiera. Quella che, in campo, è paragonabile ad un’area di contrasto quasi per molte aziende.

«Un’azienda deve potersi fidare e per potersi fidare deve capire come lavora le AI, deve capire le modalità trasparenti, devono capirlo anche le persone non addette ai lavori dell’IT. I modelli vengono addestrati per eliminare il bias, quindi il rischio che il pregiudizio sia riflesso nell’addestramento stesso, con modelli che proteggano dalla potenziale violazione di intellectual property di terze parti, un tema che diventa sempre più importante. E poi, basato su un modello che possa seguire e crescere con le esigenze dei nostri clienti».

E intanto l’azione va avanti, oltre gli schemi di gioco consueti. Se da un lato aumenta lo sviluppo di Code Assistant (assistenti che vanno a lavorare a fianco degli sviluppatori in ambito di linguaggi di programmazione) che sono fondamentali per la customer experience, ma rientrano come detto attualmente solo nello scenario da cui partiamo, dall’altro c’è da constatare che la prossima frontiera della Generative AI nel mondo applicativo non è così lontana come sembra. È quella capace di automatizzare i processi, quella degli agenti.

«Un assistente oggi lavora con un concetto di task, automatizza un task e dato un input effettua un’azione, in funzione dell’addestramento del modello – ci riassume La Volpe –. Se però l’assistente deve lavorare su processi a multi-step che richiedono maggiore livello di apprendimento e di automazione vanno in difficoltà. La nuova frontiera sono gli agenti, che partono da un input e arrivano a un out come e un task che è stato automatizzato.

Si entra in un concetto multi-step, orchestrazione, automazione di vari passaggi e integrando vari elementi. Quindi con un’automazione direttamente superiore, una capacità di apprendimento superiore e un multi-step processing che non è possibile nella tecnologia tradizionale. La chiamiamo “la nuova frontiera” ma in fondo è dove siamo già adesso».

Leggi altre notizie sui protagonisti

 

Antonella Tereo

Giornalista specializzata in attualità, lifestyle e turismo

ADV

Leggi anche