In un futuro, non molto lontano, vivremo in un mondo che sarà governato dall’Intelligenza artificiale: tale transizione sarà così spontanea da indurci a non percepirla come uno sforzo bensì come una necessità dettata dai ritmi frenetici con la quale viaggia la tecnologia.

 

Attualmente, l’intelligenza artificiale – una delle aree dell’informatica più ampie che si occupa di riprodurre il comportamento intelligente –, nonostante muova ancora i suoi primi passi, è una delle realtà che pervade prepotentemente quasi tutti gli ambiti delle attività umane.

 

Viviamo in una società che, giorno dopo giorno, si innova attraverso sussidi tecnologici sempre più potenti e di cui non possiamo più fare a meno: dagli smartphone alle applicazioni digitali e i computer fino a sistemi informatici in ambito industriale (ottimizzazione e riduzione dei costi) o sanitario (diagnosi, classificazioni, predizioni). Quella che prende piede è una tecnologia sempre più intelligente e noi – come diretti fruitori – ne subiamo (positivamente) i vantaggi. E non solo: l’Intelligenza Artificiale ci può mostrare un altro lato della medaglia fatto di insidie.

 

Il nostro è un mondo sempre più governato da algoritmi e Intelligenze artificiali: come valutare le scelte, la condotta dei robot? E da qui che si apre il dibattito all’Università della Calabria, tenutosi l’11 maggio al Teatro Auditorium del Campus, su “Intelligenza artificiale: Etica, Opportunità e Insidie” con una tavola rotonda di esperti del settore che hanno cercato di sviscerare tutte le questioni relative all’IA (Intelligenza Artificiale).

L'Intelligenza artificiale migliora la qualità della vita e del lavoro

L’Intelligenza artificiale facilita la quotidianità se pensiamo ai modi in cui può essere utilizzata (auto senza conducente, elettrodomestici intelligenti, demotica, navigatori satellitari, ecc.). Gli esperti non hanno alcun dubbio sul fatto che l’Ia migliori la qualità del lavoro e della vita a tal punto da arrivare anche ad allungarla attraverso il monitoraggio degli stati di salute e le diagnosi automatiche.

 

«In futuro molti lavori manuali e tediosi saranno svolti dai robot mentre si creeranno nuovi lavori basati sulla creatività, l’intelligenza emotiva e le abilità sociali», dichiara Nicola Leone, professore ordinario di Informatica presso l’Università della Calabria. «Nasceranno nuovi lavori per lo sviluppo, il supporto e il mantenimento dei software di intelligenza artificiale». Eppure è diffuso il timore che l’Ia causi disoccupazione, sostituendo gli uomini con i robot.

 

«Ci sarà un forte impatto, il lavoro cambierà radicalmente ma non è detto che i posti diminuiscano», prosegue Leone nella sua lectio magistralis al Tau dell’Unical. Secondo un report di Uk and Economic Outlook 2020, l’Ia creerà un gran numero di nuovi posti di lavoro non inferiore a quelli che si perderanno.

 

Inevitabilmente, assisteremo alla scomparsa di quei «lavori in cui non è richiesta un’interazione fisica come l’addetto ai call center o il receptionist» - afferma Bruno Siciliano, ricercatore Ia presso l’Università di Napoli Federico II e direttore di Icaros e Prisma lab. «Un fatto è certo - precisa Siciliano -  la robotica andrà ad implementare le conoscenze umane supportando l’uomo nei diversi ambiti della vita ma non si sostituirà in qualità di entità migliore di lui».

 

Su questo punto, Marco Menichelli, esperto industria Ia e Cto, advisor e partner di aziende operanti nel campo Ia, aggiunge inoltre che «scompariranno più velocemente tutti quei lavori concettuali di basso livello e che richiedono competenze più superficiali» mentre tutti quei «lavori che hanno necessità di interagire con l’ambiente si estingueranno molto più lentamente».

 

L’idea che accomuna gli esperti della tavola rotonda è che per tutti quei lavori destinati a morire altrettante opportunità lavorative sono pronte a nascere.

Enforcement learning: i risultati eccezionali dell’Ia

Il ragionamento dell’Ia si basa sul “machine learnig” (tradotto come apprendimento automatico), vale a dire il campo di studio che dà ai computer l’abilità di apprendere senza essere stati esplicitamente programmati; può essere paragonabile all’apprendimento di un bambino la cui intelligenza si sviluppa attraverso un “enforcement learning” ovvero la capacità di acquisire conoscenza tramite la ripetizione continua di azioni.

 

In questo caso si forniscono al sistema artificiale moltissimi “esempi” del concetto che ci interessa apprendere in modo tale che il sistema individua le regole che meglio descrivono gli esempi, cercando similarità ed elementi discriminanti.

 

Sono diverse le machine learning che hanno avuto un successo globale: nel 1997 il computer Deep blue (prodotto dall’IBM) sconfisse il campione mondiale di scacchi Garri Gasparov attraverso la modalità dell’ enforcement learning in cui compiendo le stesse modalità di gioco - fatto di errori e ripetizioni - ha raggiunto la vittoria.

 

Con lo stesso modus operandi l’intelligenza artificiale Libratus vinse un milione e mezzo di dollari giocando in un torneo con i migliori professionisti di Poker, nel 2017, con soli 20 giorni di allenamento. Alpha go, invece, fu il primo software in grado di sconfiggere un maestro umano nel gioco.

Etica e insidie

«Quanto più i computer e i robot diventeranno intelligenti e autonomi, tanto più avremo bisogno di strumenti e soluzioni per assicurarci che facciano solo il nostro bene. Sarà possibile?», è il quesito introduttivo del prof. Nicola Leone, professore ordinario di Informatica presso l’Università della Calabria.

 

È a questo punto che entra in scena l’etica, ancestrale questione ampiamente dibattuta dai tempi dell’antica Grecia da diversi filosofi, tra cui Aristotele che la definiva come quella «branca della filosofia che studia la condotta degli esseri umani e i criteri in base ai quali si valutano i comportamenti e le scelte».

 

Uno dei punti critici dell’Ia si presenta con il Trolley problem: un’automobile senza conducente, in assenza di una terza via di fuga, dovrebbe salvare il bambino o l’anziana signora? Un umano o un animale? Un dirigente o un operaio? Un onesto o un disonesto?

 

«Il mio obiettivo oggi non è certo discutere dell’etica dei robot, ma quello di evidenziare il grande bisogno che si affronti questo  importante problema», prosegue Leone nella sua lectio magistralis introduttiva.

 

Due delle più grandi insidie dell’Ia sono, oggi, le “fake news artificiali” e le intromissioni nella nostra privacy.

Le «fake news sono oggi un grave problema sociale in quanto distorcono l’informazione e ledono la credibilità dei media. L’introduzione dell’IA nelle fake news può avere un impatto distruttivo sulla società», dichiara Leone.

Si pensi alle “deep fakes” «un nuovo tipo di software video/audio editing potenziato da moderni algoritmi di intelligenza artificiale che permette di raccogliere video e immagini di due soggetti A e B, in cui l’algoritmo impara a replicare le espressioni del soggetto A sul volto del soggetto B. Inoltre è possibile simulare l’audio con algoritmi di sintesi vocale».

 

O ancora, pensiamo ai grandi colossi come Facebook, Google e Amazon in grado di profilare i nostri dati in modo da proporci contenuti personalizzati (es.: pubblicità mirata, situazione del traffico in tempo reale, ricerca di nuovi contatti con pochi click).

 

 «Il rischio è che tutto ciò va a ledere la nostra privacy per cui dobbiamo sempre decidere cosa lasciar memorizzare a Google o informarci sempre su un uso consapevole di ciò che stiamo andando ad utilizzare leggendo termini e condizioni contrattuali», puntualizza Leone.

Le macchine e il principio della Non maleficienza

Per George Gottlob, ricercatore Ia presso l’Università di Oxford e Politecnico di Vienna e co-fondatore si startup innovative) è necessaria una «Teoria del controllo del machine learning che indichi alla macchina quando va fuori dai limiti».

 

«In fondo anche noi essere umani viviamo all’interno di una società civile gestita da regole che dobbiamo rispettare, così anche alle macchine dovremmo insegnare dei principi etici», incalza Gianluigi Greco, ricercatore Ia presso il dipartimento di Matematica e informatica dell’Unical che ci tiene a precisare che «prima di fare ciò serve, però, comprendere a pieno il funzionamento dell’intelligenza umana».

 

«La prima norma che una macchina dovrebbe rispettare è quella di non fare del male all'essere umano», sottolinea Menichelli.

 

I principi etici dell’Ia, secondo la comunità scientifica, devono rispettare i principi della “beneficienza, non maleficienza, autonomia, giustizia e spiegabilità”.

 

L’auspicio è che l’Intelligenza artificiale possa, in futuro, essere «al servizio di una visione etica della società e a beneficio dell’intera umanità.Non deve far bene o a uno a all’altro, ma a tutti», conclude Nicola Leone.

La Commissione europea è sensibile al problema

Il 18 dicembre scorso il gruppo di alto livello nominato dalla Commissione europea per studiare e approfondire i temi dell’Intelligenza artificiale ha pubblicato la prima bozza di linee guida etiche in vista dello sviluppo delle sue applicazioni sia nel pubblico che nel privato che sia rispettoso dei diritti fondamentali dei cittadini e di principi basilari e che garantisca – dal punto di vista prettamente tecnologico – “robustezza e affidabilità”. Inoltre le linee guida dettate mirano a facilitare la progettazione di politiche a favore di una società in grado di utilizzare l’intelligenza artificiale per il bene comune.