L’intelligenza artificiale nel mondo delle PMI
Sono Pietro Rota e sono l'amministratore delegato di Orobix, una realtà che si occupa di intelligenza artificiale.
Orobix opera nell'ambito dell'intelligenza artificiale ormai da diversi anni. Siamo partiti 15 anni fa, e in realtà poi anche per noi l'intelligenza artificiale è stata motivo di alcuni ragionamenti e di alcune sterzate.
Insomma, l'intelligenza artificiale l'abbiamo vista crescere, anche dal punto di vista dell'adozione e della percezione di questi strumenti. Sin da subito c'è stato un grandissimo hype mediatico che, da un lato, ha aiutato anche noi a poter essere così agevolati nelle nostre interlocuzioni, ma allo stesso tempo, spesso, non ha settato bene le aspettative.
L’hype mediatico, spesso, non ha settato bene le aspettative verso l'intelligenza artificiale.
A mio parere adesso, complice anche il tema dell'AI generativa che sicuramente costituisce una super discontinuità rispetto all'AI un po' più classica, è chiaro che c'è ancora un certo grado di diffidenza. Dipende un po' anche dai settori, delle abitudini, dalla dimensione di impresa, eccetera, però molte cose le cominciamo a vedere effettivamente sdoganate.
Quindi tutte queste tecnologie, in particolare l'intelligenza artificiale, negli ultimi cinque anni ha conosciuto e sta conoscendo un'accelerazione pazzesca, e in questa accelerazione si porta dietro anche una curva di adozione che si sta decisamente impennando anche se alcuni non se ne rendono neanche conto.
Nel senso, spesso ti trovi a interloquire con qualcuno che dice no all'intelligenza artificiale, ma non si accorge che in realtà la sta già usando nei suoi processi quasi senza che lo sappia. Quindi l'impatto c'è e secondo me la consapevolezza sta aumentando, il tema vero è quello di farne un uso corretto.
Il contesto legislativo
L'adozione chiaramente ha cominciato a generare qualche campanello d'allarme anche nel mondo regolatorio nel senso che, come tutti gli strumenti, possono essere usati in maniera propria o in maniera impropria, in alcuni casi effettivamente pericolosa dal punto di vista etico, dal punto di vista della società.
Come tutti gli strumenti, anche l’AI può essere usata in maniera impropria.
Ovviamente l'Europa, ma già dal GDPR, che non riguardava ovviamente l'intelligenza artificiale, ha fatto scuola dal punto di vista regolatorio, mentre invece purtroppo la parte più tecnologica è meno europea più sbilanciata oltre oceano.
Le regole in qualche modo vanno viste sicuramente come dei paletti e degli elementi molto importanti, perché è fondamentale e sarà sempre più fondamentale che le cose che vengono usate, vengano disegnate in maniera opportuna. Quindi non solo per massimizzarne le potenzialità, ma anche per evitare che infrangano qualche legge.
Parlare di regole significa parlare dell'aspetto prevalentemente etico, di sicurezza e di rispetto di tutta una serie di criteri, ma le vere regolamentazioni devono passare poi da un uso proceduralizzato corretto all'interno delle aziende. Quindi la materia dell'AI, che diventerà comunque un nostro collega, dovrà in qualche modo essere usata in una maniera proceduralizzata.
L’importanza del risk assessment
Siamo in una fase molto eccitante, con dei picchi di entusiasmo che portano molte persone ad usare l’AI, salvo poi accorgersi di qualcosa e dire: "Ah cavolo, però non c'eravamo posti questo problema. Se è così lo vietiamo". è successo per esempio che alcune aziende, tipicamente quelle molto grandi, che sono anche molto attente a questi aspetti regolatori, hanno vietato l'uso di ChatGPT ai dipendenti.
Ma bisogna fare attenzione a non passare dal “o tutto senza regole o niente ed estremamente regolamentato”. In questo il risk assessment è fondamentale, perché è il punto di partenza per permettere poi di trarre il massimo valore dall’AI, che oggettivamente è tantissimo.
Il risk assessment è il punto di partenza per trarre il massimo valore dall’AI.
È chiaro che c'è un rischio sottostante, chiamiamolo etico e di sicurezza, ma il rischio più importante è quello di non usare bene l’AI, usarla in maniera inappropriata o usarla in contesti dove, effettivamente, questa soluzione portano meno valore di altre. Quindi il rischio che vedo è quello che si disperdano energie sbagliando il focus.
Quindi il vero tema del risk assessment è, in primis, guardare bene il valore che puoi estrarre da queste cose e cercare di avere delle soluzioni che ti permettono di far arrivare velocemente alla risoluzione di quel problema.
Il rischio più importante è quello di non usare bene l’AI.
L'altro rischio ovviamente è quello di non pensare a "Cosa succederà una volta che queste cose le avrò nei miei processi produttivi?”. Dopo averle utilizzate, si genererà un po’ di trust, di fiducia, proprio come è successo con il navigatore. E qui entra il tema di usare l’AI garantendo la scalabilità.
Questi strumenti, per portare valore, devono essere scalabili, quindi essere disegnati in maniera flessibile per poter costruire degli scheletri, anche infrastrutturali. Parlo proprio di software, che permettano poi, se domani ci sarà la rete 10.0, di poterla prendere e integrarla senza dover ribaltare tutto.
Oppure, perché questo è un altro grandissimo tema, rispetto ai task, ai problemi specifici che un'azienda può avere, non è detto che la rete 10 sia meglio della 9 necessariamente. Il risk assessment è importante anche per questi elementi, per poter in maniera veloce avere delle metriche per capire quanto valore ti possono effettivamente portare.
In generale il risk assessment riduce il rischio, torno a dire, inteso non tanto come rischio etico o di sicurezza, ma più che altro il rischio di perdere tempo, di essere inefficienti nell'uso delle proprie risorse.
Come e dove si usa oggi l’AI?
Quando andiamo su un motore ricerca e facciamo le nostre ricerche, veniamo profilati e diamo sempre l'assenso a essere tracciati, con il risultato di essere poi tempestati di informazioni che sono inerenti alle cose che abbiamo visto o cercato, da Netflix fino a Google. Questo è un utilizzo dell’AI che ormai conosciamo benissimo e abbiamo visto tutti, abbiamo capito tutti che nonostante queste cose siano gratis, dietro hanno preso i nostri dati e ne fanno uso profit.
Nel mondo business, in realtà, venendo agli aspetti più manifatturieri, un uso molto importante che viene fatto dell’intelligenza artificiale si trova nel mondo della visione artificiale, ovvero tutti quei contesti in cui per ispezionare un pezzo non basta avere una camera e codificare un software. Ci sono dei contesti in cui la variabilità è talmente ampia che questa codifica diventa un esercizio molto, molto complicato, che irrigidirebbe il sistema.
Mentre un approccio a partire dai dati o dagli esempi permette veramente di traguardare cose che prima non si poteva traguardare. Nel mondo della vision inspection, che vuol dire controlli qualità di prodotti, ma in altri casi anche nel mondo della sicurezza in ambito aziendale - noi lo stiamo usando nell'ambito dell'agricoltura, del benessere animale, nelle stalle, ecc. - vengono utilizzati sistemi molto potenti, che permettono di svolgere task delle due l'una: o che prima non erano svolte oppure che erano affidate all'uomo.
Altre cose che si fanno sono ad esempio usare e gestire grandi quantità di dati, apparentemente anche non correlati, per creare serie temporali nelle quali si possa intercettare in maniera predettiva fenomeni anomali, che se non corretti o comunque intercettati per tempo potrebbero portare a un uso inefficiente e quindi non produttivo degli asset vari.
E quanto si usa invece la cosiddetta AI generativa?
La generative AI è un po’ discontinua rispetto a tutti questi aspetti: è una cosa apparentemente molto più pret à porter e che ha un impatto trasversale veramente su tantissimi processi aziendali. Qui entra in gioco l'aspetto più generativo di documenti e testi che si creano solo dando qualche consiglio.
Le cose che vediamo oggi, vista l'evoluzione, fra sei mesi saranno già degli scherzetti rispetto a quello che si potrà fare, quindi bisogna veramente avere un po' una visione, un po' una gittata larga anche nell'ottica di vedere le cose.
La tecnologia avanza velocemente, per usarla al meglio serve avere visione. L’AI generativa impatterà tutti i processi a bassissimo contenuto e ad altissima ripetitività.
Ci sono tantissimi processi a bassissimo contenuto e ad altissima ripetitività, che oggi potrebbero essere impattati. Cioè sistemi automatici che danno risposte che tipicamente a volte ti deve dare un umano, che non è solo il chatbot, ma quei sistemi che ti danno risposte appropriate sulle tue procedure aziendali, ti aiutano a clusterizzare i ticket nel mondo dell'IT o della gestione del post vendita, o che permettono di fare trouble shooting in maniera interattiva: tutte attività per cui, dato un problema, il sistema riesce a riconoscere la soluzione all'interno della base documentale che gli è stata fornita come sottostante, a darti risposte molto appropriate e a fare correlazioni anche molto fini tra un sintomo e una possibile causa.
Barriere all’ingresso
Secondo me qui il tema è avere le idee chiare di dove può essere usata, perché poi dal punto di vista dei costi non è quella tecnologia come poteva essere, per esempio, l'investimento nell'asset produttivo (nella pressa per capirci), che ovviamente se non avevi quella stazza non potevi comprarla.
Qui la barriera all'ingresso dal punto di vista economico non è altissima e i ritorni, se usata molto bene, sono molto veloci. Quindi non è un tema di disponibilità; è chiaro che più sei grande, più tipicamente hai dei processi che magari, su una scala così grande, abbatterli anche del 60% comincia a essere molto significativo.
La barriera all'ingresso dal punto di vista economico non è altissima e i ritorni, se usata molto bene, sono molto veloci.
In altri casi magari fai risparmiare due ore alla settimana di una persona, allora a questo punto forse il gioco non vale la candela. Ma quando due ore vuol dire moltiplicate per 200 dipendenti, cominciano a essere numeri importanti.
L’AI e l’impatto sulla business continuity
Spesso una richiesta che ci viene fatta è il tema di come l'intelligenza artificiale possa aiutare a mitigare il rischio della business continuity, a far trasferire la conoscenza sia intra-aziendale che in ambito inter-aziendale.
Questo effettivamente è uno degli effetti che anche noi vediamo, anzi è uno degli elementi secondo me anche più affascinanti, perché siamo in uno scenario, in cui comunque ci sarà carenza di forza lavoro, ci sarà carenza di produttività.
Ecco, oggi l'intelligenza artificiale, e in particolare quella generativa, può essere vista come una grande opportunità di business continuity, quindi sistemi che in qualche modo riescono a diventare davvero il tuo collega.
Oggi l’ingelligenza artificiale può essere viste come opportunità di business continuity.
Il tema di mitigare questo rischio ovviamente ha ricadute non solo su questo aspetto di rendere trasversale una conoscenza digitalizzandola, ma proprio anche di aiutare a interconnetterne una serie di elementi.
Quindi, essere in grado di risolvere delle cose nuove, ma facendo tesoro di quello che è stato fatto nel passato. Ecco, l'intelligenza artificiale fa proprio questo: parte dagli esempi, ma non necessariamente deve essere successo quel caso lì, perché allora io so riconoscere quello. Sono sistemi che riescono anche a fare correlazioni, approssimazioni di similarità tra fenomeni per dire: "Ok, quel fenomeno lì assomiglia a questo, allora suggerisco di adottare la stessa azione che è stata adottata anche se ufficialmente il fenomeno è diverso".
E anche dal punto ovviamente inter-aziendale, soprattutto nei processi di filiera, queste cose qua si fanno benissimo, dalla fase di design fino alla fase di produzione, sono cose che vediamo benissimo accelerate dal punto di vista dell'intelligenza artificiale.
Qual è il ruolo dell'uomo in questo scenario?
Non va dimenticato che, nonostante l'AI sarà sempre più consumer, quasi commodity, molto pret à porter, servirà sempre un accompagnamento all'adozione e l'uomo nel loop ci dovrà sempre essere. Spesso si assiste a una sorta di demonizzazione, secondo cui l'uomo sparirà dal tutto, tra l'altro addirittura anche da questa AI che si autogenera e che adesso sta portando via il lavoro anche i data scientists.
Questo aspetto del led by humans, come si dice, quindi un po' guidata dall'uomo, gestita dall'uomo, noi lo vediamo del tutto attuale e come un ingrediente imprescindibile. Potranno cambiare le tecnologie, ripeto, molto probabilmente le cose che anche noi stessi intravediamo possano succedere, rispetto alle cose che effettivamente succederanno, saranno molto diverse. In realtà quello che probabilmente sarà l'invariante vera sarà l'uomo.
Quello che probabilmente sarà l'invariante vera sarà l'uomo.
È chiaro che l'uomo, e questa è anche la sfida di tutti, anche dell'accademia, della scuola, eccetera, dovrà formarsi per poter gestire queste cose. Quindi alcune cose probabilmente non saranno più ad appannaggio dell'uomo, e forse anche bene, altre cose assolutamente rimangono. Quindi, secondo me, ci sarà un ulteriore potenziamento dell'aspetto umano dell'uomo e meno dell'aspetto macchina che a volte è richiesto all’uomo.