Intelligenza artificiale: sviluppi, rischi e regolamentazione. La parola al Prof. Giuseppe Italiano

  9 minuti di lettura

Lo scorso 9 dicembre è stato approvato il primo pacchetto europeo di regole sull’intelligenza artificiale: sull’Artificial Intelligence Act, Parlamento e Consiglio europeo hanno raggiunto un accordo che dota i 27 Stati dell’Unione della prima legge che affronta in maniera complessiva lo sviluppo del settore. In questa breve intervista, abbiamo approfondito il tema con il Prof. Giuseppe Francesco Italiano, direttore della laurea magistrale in Data Science and Management e professore di Computer Science dell’Università Luiss Guido Carli di Roma, nonché membro del nuovo Comitato per studiare l’impatto dell’Intelligenza Artificiale sull’editoria, presieduto da Giuliano Amato.


Professore, l’integrazione dell’Intelligenza Artificiale nei processi produttivi e nell’ambito della formazione ha grandi potenzialità, ma ci invita a profonde valutazioni di carattere etico e sociale. Uno sviluppo consapevole e responsabile è essenziale per garantire il rispetto dei diritti e promuovere un progresso davvero condiviso?

L’intelligenza artificiale (AI) ha il potenziale di migliorare le nostre vite in molti modi. Così come hanno fatto molte altre tecnologie in passato, può automatizzare attività ripetitive o pericolose, liberando il nostro tempo per attività più creative e significative, L’AI può anche aiutare a migliorare la formazione, rendendola più efficace e coinvolgente, come stiamo sperimentando nella nostra università. Tuttavia, è importante che le tecnologie di AI siano sviluppate e utilizzate in modo consapevole e responsabile. È necessario considerare gli aspetti etici e sociali delle loro implicazioni, per evitare che vengano utilizzate in modo pericoloso o discriminatorio. Ad esempio, è importante garantire che tecnologie di AI non vengano utilizzate per discriminare persone in base alla loro razza, sesso, religione o altri fattori. È anche importante garantire che l’AI non venga utilizzata per sostituire le persone nel lavoro, ma piuttosto per aumentare le loro capacità o aiutarle a svolgere le loro attività in modo più efficiente e sicuro.

I sistemi di AI potrebbero con il tempo diventare così complessi e sofisticati da raggiungere una propria forma di coscienza, come la capacità di percepire gli stimoli e rispondere di conseguenza. In che modo?

Devo confessare di essere un po’ scettico su questo punto: personalmente, credo che le tecnologie attuali siano molto lontane dal raggiungere una propria forma di coscienza. Più che di questi temi molto futuribili, e forse anche un po’ fantascientifici, credo che dovremmo preoccuparci di molti altri aspetti, oggi più pressanti, relativamente all’impatto dell’intelligenza artificiale sulle nostre vite, sul nostro lavoro e sulla nostra società.

Nell’ultimo Work Trend Index 2023 di Microsoft, una ricerca che analizza l’evoluzione delle tendenze, delle sfide e delle opportunità nel mondo del lavoro tra l’Intelligenza Artificiale e gli esseri umani, basandosi su un sondaggio online a oltre 17.000 lavoratori in 13 paesi, tra cui l’Italia, rileva come l’AI stia cambiando il modo di lavorare, le competenze richieste e le aspettative dei lavoratori. Visto il potenziale impatto sociale, sempre più esperti stanno invocando un rallentamento o addirittura una sospensione degli sviluppi di Large Language Model. Lei cosa ne pensa?

Non credo sia possibile fermare gli sviluppi tecnologici, ma dobbiamo piuttosto sforzarci di governarli per il bene di tutti, e non soltanto di poche grandi aziende. È anche interessante notare che alcune persone autorevoli che hanno firmato lettere di moratorie sugli sviluppi di Large Language Model (LLM), prefigurando scenari apocalittici o chiamando in causa Terminator, erano contemporaneamente già al lavoro sullo sviluppo dei propri LLM, come ad esempio è stato il caso di Elon Musk e del suo Grok AI. Più che di rallentare gli sviluppi tecnologici, mi preoccuperei piuttosto di accelerare le competenze digitali delle persone. Soprattutto in un paese come il nostro, in cui, come ci ricorda impietosamente ogni anno il DESI (Digital Economy and Society Index), il 54% della popolazione non ha competenze digitali di base; come ci dice l’OECD, circa il 28% della popolazione tra i 16 e i 65 anni è analfabeta funzionale, cioè non è in grado di leggere e di comprendere la realtà che la circonda; come rileva l’ISTAT, circa il 23% dei nostri giovani non studia, non lavora, e non si preparando a un lavoro. In queste condizioni, pensiamo davvero che il problema sia l’intelligenza artificiale?

Sappiamo che gli algoritmi assimilano e sviluppano i cosiddetti AI bias, perpetrando i medesimi criteri discriminatori che la nostra cultura fatica a superare: ci può spiegare come questo accade e quali sono le implicazioni di questo fenomeno in relazione a possibili applicazioni delle AI?

Correndo il rischio di semplificare un po’ troppo, tipicamente i sistemi di machine learning per ottenere un risultato devono essere preliminarmente addestrati su una opportuna quantità di dati. Se questi dati di partenza non sono rappresentativi, oppure sono affetti da bias o pregiudizi, anche i sistemi costruiti a partire da questi dati lo saranno. Ad esempio, se costruisco un modello di machine learning per effettuare riconoscimento facciale, ma il mio insieme di dati di addestramento contiene più immagini di uomini che di donne, e magari contiene anche pochissime immagini di persone di colore, il mio sistema saprà riconoscere molto bene uomini bianchi ma invece farà molti errori nel riconoscimento di donne di colore. E se questo sistema di riconoscimento facciale verrà utilizzato dalle forze dell’ordine, magari per individuare potenziali criminali, allora potrebbe generare discriminazioni molto pericolose.

Gli ultimi accadimenti ci pongono di fronte a domande legittime: tra la lettera aperta con cui Ed Newton-Red che ha lasciato StableAI, il licenziamento di Sam Altman da OpenAI, l’addio di Greg Brockman e i conseguenti rispettivi rientri. Se pure ai vertici delle società protagoniste in materia sembrano esserci tensioni e poca unanimità di vedute, lei pensa che una maggior regolamentazione più urgente e temporanea in attesa della definizione di un quadro regolamentare più stabile possa essere più utile rispetto a ciò a cui stiamo assistendo in questi giorni?

La regolamentazione è molto importante, ma purtroppo ha di per sé tempi molto più lenti rispetto alla velocità delle attuali tecnologie. Prendiamo ad esempio l’AI Act con cui l’Unione Europea sta regolando l’intelligenza artificiale: è partito il 21 aprile 2021, quando ancora non si immaginavano neanche lontanamente gli incredibili sviluppi degli LLM, come ad esempio ChatGPT. Dopo più di due anni e mezzo, si è finalmente raggiunto un accordo preliminare sull’AI Act proprio in questi giorni, ma ora dovranno passare almeno altri due anni (i 24 mesi di garanzia) prima che diventi operativo. Quindi, nella migliore delle ipotesi l’AI Act entrerà in vigore soltanto nel 2026. In questi cinque lunghi anni, abbiamo assistito e probabilmente assisteremo a continue ondate di innovazioni tecnologiche, che continueranno a stravolgere completamento lo scenario, e che molto probabilmente continueranno a mettere in crisi vari tentativi di regolamentazione. Mi sembra che la velocità delle tecnologie digitali stia creando incredibili tensioni di cui siamo continuamente testimoni. Di sicuro, tensioni tra innovazione e regolamentazione. Ma forse addirittura tensioni tra innovazione e comprensione dei fenomeni.