giovedì 1 giugno 2023

La Parola del mese - Giugno 2023

 

La parola del mese

Una parola in grado di offrirci

nuovi spunti di riflessione

GIUGNO 2023

E’ una delle più importanti tematiche del nostro presente, e delle sfide del nostro futuro. Le opinioni al suo riguardo si dividono fra entusiastici sostenitori e preoccupati scettici. In mezzo sta la stragrande maggioranza dei cittadini che, stimolati in modo contradditorio e confuso dalle sue continue novità, ondeggia fra questi due atteggiamenti. Pesa non poco, proprio per la sua oggettiva complessità, la diffusa insufficiente conoscenza (a partire da chi scrive!) dei termini tecnici della questione. Questo nostro contributo mira a colmare almeno in parte questa lacuna, e quindi a meglio comprendere l’evoluzione del dibattito, e quindi abbiamo deciso di sceglierla come “Parola del mese” di questo Giugno 2023

I.A. Intelligenza Artificiale

A.I (Artificial Intelligence) nella versione inglese

Per farlo ci siamo valsi di un libro di recentissima pubblicazione che, con coinvolgente tono divulgativo, si pone proprio questa finalità

la cui autrice è Francesca Rossi

che possiede una straordinaria competenza in merito [1962, laureata in Informatica, a lungo Professoressa di informatica presso l’Università di Padova, nel 2020 è stata la General Chair (coordinatrice generale) del convegno AAAI (Associazione per l’Avanzamento della Artificiale Intelligenza), attualmente responsabile del gruppo di ricerca IBM per l’etica dell’intelligenza artificiale] Dal suo testo estrapoliamo la sua personale versione della usuale definizione di partenza della nostra Parola

L’Intelligenza artificiale è una disciplina scientifica che mira a definire e sviluppare programmi o macchine (software, hardware) che mostrano un comportamento che verrebbe definito intelligente se fosse esibito da un essere umano

Il ruolo della componente hardware (il supporto fisico: il computer, la “macchina” che può avere le inquietanti forme di robot umanoidi, i circuiti elettronici, eventuali estensioni meccaniche) è importantissimo, ma il cuore dell’I.A. consiste nel software, nei programmi che svolgono le attività previste e desiderate. Il software in effetti altro non è che ….. un programma scritto in un linguaggio di programmazione che dice ad un computer quali azioni deve compiere per risolvere un problema …… E qui sono sorte fin dagli inizi dell’informatica alcune complicazioni: i linguaggi di programmazione (ne esistono diversi) non possono tradurre letteralmente, replicare, il “normale” linguaggio fra umani perché esso presenta alcune “ambiguità” che rischiano di compromettere la “precisione” della comunicazione. Esistono ambiguità “lessicali(se estrapolate dal contesto molte parole possono significare cose del tutto diverse), “sintattiche(ad es: a chi riferire un aggettivo possessivo se la frase contiene più suoi possibili destinatari’), “linguaggio metaforico(una metafora va interpretata in senso letterale?). Per aggirare l’ostacolo i linguaggi di programmazione si sono quindi affidati a specifiche sintassi e regole linguistiche (prevalentemente di valenza matematica) privi di ambiguità, essendo unidirezionali. La sequenza di istruzioni, basata su queste modalità di linguaggio, è condensata nel termine “algoritmo(in generale designa qualunque schema o procedimento di calcolo sistematico, è una parola che deriva dal soprannome “al-khuwarizmi” del matematico arabo Muhammad ign Musa vissuto nel 9° secolo) ed è finalizzata a risolvere un problema, ad ottenere un risultato voluto, definito “output”, immettendo nel computer/macchina, i dati necessari per tale scopo, definiti “input”. Immaginando quindi di aver realizzato un computer dotato di una buona combinazione hardware/software e contenente adeguate “istruzioni/algoritmi”, quando e come esso potrebbe essere definito “intelligente”? Non aiuta certo a rispondere la definizione di intelligenza del suo quanto mai vaga e declinabile in molti differenti modi. Lo è se riferita all’uomo e ad altre forme viventi (ultimamente è stata estesa anche alle piante), a maggior ragione questa vaghezza vale se applicata ad una fredda macchina, fatta di circuiti e di impalpabili istruzioni.  Impossibile quindi per lo scopo di questa divulgazione entrare nel merito di una discussione che, per quanto alla lunga inaggirabile per classificare l’I.A., si apre in troppe direzioni, Francesca Rossi si limita quindi a recuperare la distinzione fra due categorie di attività mentali umane: il pensiero veloce ed il pensiero lento. In primo interviene, pressochè in modo automatico, quando si devono prendere decisioni immediate, basate su intuizioni, emozioni, reazioni istintive. Il secondo invece è quello che si attiva per gestire situazioni e comportamenti che richiedono valutazioni più complesse, meno istintive, basate su una molteplicità di fattori. E’ opinione diffusa quella di associare l’intelligenza umana soprattutto al pensiero lento, anche se le neuroscienze hanno da tempo dimostrato che in realtà è sempre e comunque il pensiero veloce che interviene per primo proprio per fornire a quello lento le basi sulle quali svolgere il suo lavoro. Vale a dire che fra le due forme di pensiero non è corretto fissare delle distinzioni troppo rigide, e non a caso l’uomo è tutt’altro che un essere vivente perfettamente logico e razionale! Questa distinzione tra forme di pensiero vale anche per la I.A.? Secondo Francesca Rossi si può rispondere di sì, se interpretiamo come “pensiero lento” le tecniche della I.A. preposte alla risoluzione di problemi che richiedono la gestione/valutazione precisa e analitica dei dati che li riguardano, e viceversa se chiamiamo “pensiero veloce” quelle che devono intervenire per affrontare problemi più indeterminati, più vaghi, più “astratti”. Questa sostanziale convergenza di forme di pensiero è criterio sufficiente per definire “intelligente” un computer/macchina? A quanto pare non del tutto se, come per l’intelligenza umana, anche questa domanda non sembra avere risposte certe e condivise (la stessa I.A, l’affronterebbe con un “pensiero lento”), non a caso gli stessi ricercatori e sviluppatori della I.A. sono molto divisi al riguardo. Da una parte troviamo i seguaci del matematico inglese Alan Turing (1912-1954, considerato uno dei padri dell'informatica) convinti che esista una intelligenza artificiale (è famoso il “test di Turing”: una persona dialoga, senza vederli, con un’altra persona ed un computer, se chiamata a individuare chi fra questi due sta rispondendo alle sue domande non riesce a distinguerle, allora si può definire intelligente anche il computer), molti altri invece, considerando la complessità di comportamenti definibili intelligenza, mantengono molti dubbi al riguardo. Per aggirare il problema di una disputa teorica che appare, per ora, senza soluzione nell’ambito delle ricerche attorno alla I.A. da tempo si è preferito ripiegare sul concetto di “razionalità[il testo più usato per l’insegnamento della I.A. “Artificial Intelligence: a modern approach (un approccio moderno)” si basa proprio su questo concetto], intendendo con esso: la capacità di un sistema di capire quali sono le decisioni migliori per arrivare alla soluzione di un problema o al raggiungimento di un obiettivo prefissato.  L’uso del concetto di razionalità si è in effetti dimostrato fondamentale per indirizzare l’intero sviluppo della I.A., che in generale ha sin qui seguito due distinti percorsi: uno che ha puntato alla realizzazione di una I.A. debole, focalizzata”, ed un altro che invece si è posto l’obiettivo di una I.A. forte, generale”. Si tratta di una fondamentale differenza di impostazione di base, con la prima, quella “debole/focalizzata”, che dato un problema specifico mira alla sua soluzione utilizzando “apposite tecniche(le istruzioni date alla macchina) quali la logica/ottimizzazione (la soluzione migliore individuata sulla base di criteri predefiniti, ma anche solo sulla base di probabilità) la pianificazione (la sequenza di possibili azioni), la schedulazione/apprendimento (soluzione di un problema a partire da esempi di soluzioni analoghe), e la seconda, quella “forte/generale", che, ben più ambiziosa, punta ad una più ampia capacità di effettuare attività con la stessa flessibilità e adattabilità umane. La prima, ad avanzato stadio di realizzazione, ha ormai vasti campi di utilizzo, la seconda è per ora limitata alla sperimentazione su giochi online (osserva gli schemi di gioco per arrivare a capire come arrivare al risultato senza più bisogno di “apposite tecniche” fornite dall’uomo). In generale però, con quest’ultima eccezione, finora l’I.A. si è  concretamente tradotta in un modo per aumentare, coadiuvandola in diverse attività, l’intelligenza umana, e quindi si parla di “augmented intelligence, intelligenza aumentata” piuttosto che di “extended intelligence, intelligenza estesa”, ossia  di computer/macchine capaci di amplificare, ottimizzare, le capacità umane grazie ad una stretta relazione uomo/macchina (ad es. in medicina per individuare le diagnosi,  terapie migliori, per collaborare ad interventi chirurgici . Uno studio americano del 2016 ha evidenziato che, nel caso di diagnosi di tumori al seno, i medici da soli avevano un margine di errore di 3,5 volte su 100, i migliori sistemi di I.A. da soli 7,5 volte su 100, medici e I.A. insieme scendevano a 0,5 volte su 100). L’ancora breve storia della I.A. (termine coniato per la prima volta nel 1956) si è quindi sviluppata lungo queste due direttive di fondo con un andamento alterno fatto di incoraggianti successi, ma anche di delusioni, e che nella sua versione “extended” è stata in buona misura inizialmente testata soprattutto nel campo dei giochi da tastiera (perché ambienti di prova limitati e circoscritti, con regole chiare, ed con il solo scopo di vincere). Due test in particolare aiutano a capire l’evoluzione avvenuta nel perfezionamento delle “informazioni/algoritmi”:

*    1997 = il programma Deep Blue vince una partita a scacchi contro il campione mondiale Garry Gasparov (la grande potenza di calcolo di Deep Blue consentiva di calcolare le possibili mosse molto meglio e molto prima, in una sorta di rivincita successiva Kasparov vinse attuando mosse fantasiose fuori dagli schemi)

*   2016 = il programma AlphaGo, dell’azienda Deep Mind, batte il campione mondiale di Go, un gioco da tastiera persino più complesso degli scacchi (in questo gioco è impossibile giocare e vincere solo immaginando le mosse dell’avversario, occorre adottare mosse originali, AlphaGo ci riesce mescolando vari algoritmi di I.A. di diverso tipo). Nel 2017 un nuovo programma, AlphaGo Zero, batte AlphaGo in tutti i giochi da tastiera

In parallelo sono stati affrontate, con crescente perfezionamento, anche attività che non consentono di essere gestite scrivendo adeguati algoritmi, in questo caso lo sviluppo della I.A. si è mosso con un diverso approccio: dotare il computer/macchina di un archivio, il più ampio possibile di “esempi” utili, perché similari, per ottenere il risultato voluto. Un caso esemplare è la capacità di riconoscere oggetti/persone in una sequenza di immagini, per un computer infatti una foto è solo una sequenza di pixel (da picture element, elementi di immagine), se lo si dota di un adeguato numero di esempi di riferimento il computer riesce a farlo con un buon margine di successo. Allo stesso modo si è riusciti a superare alcune delle difficolta di “dialogo” uomo/macchina: come fa ad es. Alexa a capire, a tradurre in parole, i comandi vocali (inizialmente semplici suoni) che riceve? Lo fa, con un margine di errore ormai molto basso (attorno al 5%) proprio perché è dotata di un gran numero di esempi che associano quel suono ad uno specifico comando. E non è diversa la spiegazione della straordinaria velocità con la quale i motori di ricerca in Internet rispondono alle richieste d’informazione immesse ancora prima che queste siano completate: questi risultati sono già stati calcolati, e indicizzati (a mo' di esempi), nella impressionante rete di computer, di altissima potenzialità, che gestiscono la Rete (solo Google nel 2016 disponeva di 2 milioni e mezzo di computer). Ed è qui però che emerge una problematica scottante: la massa dei dati che servono a questi computer per calcolare/indicizzare viene fornita dagli stessi utenti! (nel web si muovono circa 4 miliardi di persone, e la quasi totalità è attiva sui “social”) i quali da una parte usano l’I.A. per avere  le associazioni più probabili a quanto immesso nel motore di ricerca, ma dall’altra sono  proprio le loro richieste a creare gli “esempi” necessari alla I.A. per fare questo lavoro. Con in più il fatto, tutt’altro che trascurabile, che questa forma di I.A. è bravissima, sempre usando quanto viene immesso nei motori di ricerca, nel leggere, nel capire e nel classificare gusti e preferenze di ogni singolo utente indirizzando così, altrettanto immediatamente, gli immancabili “suggerimenti pubblicitari”. Restando nel campo di questa forma di applicazione della I.A. le stesse segnalazioni che riceviamo da banche ed istituti di credito per avvisarci di transazioni sospette sono operazioni generate da programmi che si attivano sulla base di dati storici (esempi) e di collegati calcoli di probabilità. Se è quindi dato consolidato la straordinaria capacità della I.A. nella gestione della impressionante massa dei dati immateriali circolante nella Rete (con le tecniche del “data mining, estrazione di dati”) molto più lento appare al momento il suo perfezionamento nella sfera dei “movimenti” fisici, della fisicità motoria che noi umani consideriamo naturale, istintiva, “facile”. In effetti questa nostra istintiva fisicità è il risultato, inconsapevole, di un consistente numero di “operazioni tutt’altro che semplici per essere tradotte in “istruzioni” (ad es. la semplice operazione di aprire una porta implica una notevole catena di passaggi per l’I.A.: individuare la maniglia, capire la sua forma, valutare la giusta forza da usare per girarla, decidere la giusta direzione per l’apertura. Una serie di azioni che richiedono la combinazione di molteplici e differenti istruzioni). Per meglio comprendere le potenzialità, ed i rischi, che derivano da questo progresso tecnologico, con i suoi molteplici successi (molti dei quali sono ormai vissuti come naturali) e le tante difficoltà che devono ancora essere superate è necessario ritornare alla tecniche più usate nel campo della I.A. Per aiutarci a meglio capirle Francesca Rossi parte da alcune operazioni che possiamo definire “ordinarie”, ma che tali non sono per l’I.A.: come ad esempio quella di un traduttore automatico (una applicazione che ha avuto uno straordinario miglioramento, ma che è ancora lontana dall’essere perfetta). Quali sono le giuste istruzioni da dare al computer per operare? Come si è visto in precedenza si possono seguire due strade: dare al computer tutti gli “input” per analizzare la frase da tradurre oppure dotarlo di tantissimi “esempi” di parole e frasi già tradotte (sono due diverse modalità volendo assimilabili al “pensiero lento”, la prima possibilità, e al “pensiero veloce”, la seconda). Nel primo caso, come in tanti altri analoghi, “l’istruzione” da dare al computer consiste in quello che in gergo viene chiamato “algoritmo procedurale(ossia l’insieme dei passaggi da seguire: individuare le parole, raggrupparle in frasi secondo le regole grammaticali, tradurle in frasi di forma compiuta) che, in questo caso, deve superare tutte le complicazioni intrinseche al linguaggio scritto (sono quelle di ordine lessicale, sintattico, metaforico già evidenziate in precedenza). La questione appare quindi parecchio complessa. Nel secondo caso invece ci si limita a fornire al computer un adeguato numero di  “esempi” iniziali per metterlo in grado, grazie alla tecnica di “machine learning – apprendimento automatico”, di fornire traduzioni sempre più adeguate grazie al fatto che ogni nuovo passaggio viene utilizzato dal computer per “arricchire gli esempi”  da utilizzare (il computer viene proprio “allenato” ad operare così con una tecnica chiamata “super-vised learning – apprendimento supervisionato”, le ultime versioni di questa tecnica prendono ispirazione dalla rete di neuroni del cervello replicandola in quella che viene definita “neural net – rete neurale”). La migliore efficacia della seconda tecnica, resa possibile anche dallo straordinario miglioramento/potenziamento/velocizzazione dell’ hardware”, l’ha ormai resa quella prevalente (collegata alla tecnica del “super-vised learning” è stata messa a punto una tecnica persino più raffinata: il “reinforcement learning – apprendimento con rinforzo” usata per massimizzare la risposta del singolo utente ad esempio in operazioni di “suggerimento automatico” per ricerche, e acquisti, in Rete. Con questa tecnica è proprio il “click” dell’utente a confermare che la soluzione proposta è quella cercata, passaggio che il computer memorizza come “esempio di successo” per successive operazioni). Va però tenuto conto che la disponibilità di dati in Rete, utilizzabili come esempi per “allenare” i computer con il “machine learning”, è patrimonio molto recente e non sempre ottimale per scopi particolari [ad esempio fino a pochi decenni fa erano molto limitati gli archivi di immagini fotografiche e quelli di testi scritti (Internet nasce nel 1982 ed ancora nel 1984 erano mille i computer collegati in Rete in tutto il mondo). Solo con l’esplosione della Rete avvenuta a cavallo del secolo (Facebook nasce nel 2004, vent’anni dopo ha due miliardi di utenti attivi al mese) è stato possibile disporre di archivi sufficientemente adatti a coprire tutte le necessità.]. E’ però indubbio che la svolta consentita dal machine learning, una volta ottimizzato grazie ad adeguati archivi di esempi, è davvero significativa, si è infatti ormai passati ad una I.A. in grado di risolvere con crescente precisione anche quei problemi per i quali …… non si conosce la risposta …. che quindi non consentivano ai programmatori di immettere tutte le istruzioni necessarie per utilizzare la tecnica degli “algoritmi procedurali”. (i quali mantengono comunque una loro preziosa e diffusa validità se applicati alla gestione di problemi costituiti da dati certi per quanto complessi (l’Input), ad es. li utilizza tuttora la navigazione satellitare GPS). Vale a dire che è sorprendente la capacità del machine learning di fare crescente tesoro degli esempi per “avventurarsi” su percorsi ancora inesplorati (per certi versi consiste proprio in questa “adattabilità” una delle maggiori motivazioni per affermare l’intelligenza della I.A.) Esiste però una  differenza, che ha una fondamentale valenza in termini di “affidabilità”, fra “algoritmi procedurali” e “machine learning”: i primi tendenzialmente forniscono sempre risposte corrette (l’ouput) (eventuali errori sono imputabili ad una errata programmazione da parte degli estensori degli algoritmi di istruzione), mentre il secondo è “per definizione” soggetto ad errori. Non a caso quindi nel primo caso il criterio base è quello della “correttezza”, mentre nel secondo non si può, per il momento, andare oltre quello della “accuratezza(gli standard migliori finora raggiunti indicano ancora un margine di errore del 5%). In questa carrellata di dispositivi dotati di I.A. rientrano ovviamente i “robot(dispositivi hardware dotati di specifici software che consentono movimenti funzionali nel mondo fisico) per i quali sono però indispensabili anche altre specifiche tecniche che congiuntamente formano la “robotica(una disciplina scientifica a cavallo tra ingegneria meccanica, informatica e fisica). I robot sono da parecchio tempo presenti in lavorazioni industriali di tipo ripetitivo e canonico (le classiche catene di montaggio, ma anche i magazzini super-automatizzati di Amazon, piuttosto che in campo medico e chirurgico), ma l’incontro della robotica con l’ I.A. ha consentito una loro stupefacente evoluzione nell’ambito privato (ad es. sono robot Alexa della Amazon,  il cagnolino da compagnia della Sony), ma la loro maggior parte per il momento ancora si muove, come prototipo, nei laboratori di ricerca (è bene non farsi ingannare dalle anticipazioni pubblicitarie!), per un percorso che richiederà molto altro lavoro, molte risorse …… e molta fortuna! In questo quadro di straordinari progressi non mancano tuttavia problemi, difficoltà, limiti che al momento appaiono ancora invalicabili a partire dai margini di errore, già evidenziati, per il machine learning. Non si tratta solo di accettabili difetti “di gioventù”, spesso questo genere di errori può assumere caratteri di totale imprevedibilità, con risposte molto lontane da quelle che ci si aspetta usando gli abituali criteri umani (sono anedottiche alcune letture di immagini da parte della I.A., così come alcune risposte di ChatGPT, una applicazione di dialogo fra umano e artificiale). In alcuni casi, come quello della guida automatica o della diagnostica medica, eventuali errori (in questi casi si tratta di quelli definiti  “falsi positivi” e “falsi negativi”) possono anche avere pesanti conseguenze. In particolare a tutt’oggi l’I.A. su base machine learning  non riesce ancora a ragionare o a ricavare informazioni su concetti generali utilizzando gli esempi (input) su cui attiva le sue risposte/soluzioni (ouput) per compiere astrazioni ed estensioni (è stato messo a punto un test, chiamato “schema di Winograd” dal nome del suo inventore, che misura questa specifica competenza ponendo alla macchina domande come “la scatola non entra nella valigia perché è troppo grande”. Ebbene al momento l’I.A. non sa collegare quel “troppo grande” alla scatola, risposta per noi banale, piuttosto che alla valigia. In casi come questo i margini di errore sono del 50%). Un’altra complicazione, fondamentale per valutare, su basi fisiche, l’I.A, deriva dal suo bisogno di hardware molto potenti che, per quanto basati sulle reti neurali, comunque non reggono il confronto con il cervello umano. Questo (che, con il suo miliardo di neurosi ognuno dei quali è connesso ad altri neuroni da circa mille sinapsi, pesa solo un chilo e mezzo e necessita di soli 20 Watt di potenza per funzionare) riesce ad effettuare un exaflops (1 seguito da 18 zeri) di operazioni al secondo, ed è quindi più “performante”, dei più potenti super-computer, che per funzionare hanno bisogno di 15 Megawatt (un milione di watt) e non vanno oltre a 93 petaflops (un petaflops corrisponde a 1 seguito da 15 zeri).

-------------------------------------------------------

Queste informazioni “tecniche” raccolte da Francesca Rossi nel suo saggio non sono certo in grado, da sole, di rispondere alla domanda se l’I.A. ha titoli per essere definita vera “intelligenza”. Concorrono all’uopo molte altre considerazioni di vario genere: filosofiche, etiche, di evoluzione antropologica, neurologiche (legate soprattutto al ruolo dei sentimenti e delle emozioni). Certo è che, per quanto approssimativa, una sua migliore conoscenza “dal di dentro” può aiutare a meglio calibrare l’interrelazione con questi giudizi di altra natura. Al tempo stesso sono elementi utili per meglio valutare le tante problematiche legate alla crescente presenza della I.A. nelle nostre vite. Da questo saggio abbiamo quindi sintetizzato le considerazioni di Francesca Rossi a questo riguardo.

-------------------------------------------------------

L’enfasi, e la superficialità, mediatica che accompagnano le legittime domande sul ruolo della I.A. poco aiutano a meglio comprendere i termini reali di molte delle questioni che generano gli entusiasmi piuttosto che le preoccupazioni e l’apprensione citate all’inizio. Ambedue questi atteggiamenti non sembrano essere sempre ben calibrati rispetto ai due scenari di base in cui è corretto collocarli: gli usi attuali della I.A. e quelli ipotizzabili nel futuro. Francesca Rossi fornisce al riguardo alcune sue opinioni “professionali”:

Ø è purtroppo vero che in alcune applicazioni della I.A. si manifestano pregiudizi (bias in inglese) sociali (i sistemi di valutazione del grado di propensione al crimine, usati ad es. negli USA, sono molto più severi verso certi gruppi sociali),  di genere (i traduttori automatici non sempre rispettano la giusta appartenenza di genere), etnici (i sistemi di riconoscimento facciale non funzionano al meglio per le persone di colore e di etnie particolari). Il problema però nasce a monte, negli “esempi” immessi nel machine learning per “far imparare” la macchina, se questi dati sono più calibrati su alcune fasce della popolazione l’I.A. si comporterà di conseguenza. I bias non sono una scelta “autonoma” della I.A., ma derivano dallo sbilanciamento dei dati che le vengono forniti. La soluzione potrà quindi derivare da un maggiore equilibrio e rispetto delle diversità da parte dei progettisti

Ø questa soluzione vale anche per superare i dilemmi di carattere “etico” che si manifestano, con rilevante frequenza, nelle concrete attività della I.A. Tutti gli ordini impartiti e tutte le finalità richieste alla macchina vengono da questa eseguite sulla base delle istruzioni che ha ricevuto, se queste non contengono tutte le necessarie indicazioni di ordine valoriale, ovvero si basano su esempi scorretti, è possibile che la I.A., asetticamente finalizzata agli obiettivi, adotti, pur di addivenire al risultato, comportamenti “discutibili”. In questo caso però, a differenze dei precedenti bias (in gran misura spiegabili per una insufficiente calibrazione “statistica” delle istruzioni in fase di programmazione) il ruolo dei programmatori è molto più complesso perché richiede loro di operare scelte valoriali che quasi mai hanno valenza oggettiva. Quali valori sono assunti a riferimento e in quale ordine di priorità sono inseriti? Chi e come lo decide? Sulla base di quali scelte collettivamente decise? Il dibattito al riguardo non sembra essere sin qui adeguato alla rilevanza del problema, e la velocità di progresso della I.A. impone che quanto prima tale gap debba essere colmato.

Ø In alcuni casi, molto meno complessi, ciò è già avvenuto. Nella U.E. dal 2018 è in vigore una legge (la GDPR, General Data Protection Regulation) che dà diritto ad un utente di avere spiegazioni su una decisione presa da un algoritmo I.A. (ad es. per un mutuo non concesso o per un servizio sociale non riconosciuto)

Ø Ma ad oggi non è semplice fornire tali spiegazioni soprattutto per macchine che hanno utilizzato il machine learning. Se, come si è visto, per applicazioni di I.A. basate su algoritmi procedurali la risposta chiama in causa gli input utilizzati ed è quindi possibile entrare nel merito dei parametri e dei criteri che li hanno determinati, per il machine learning, apprendimento automatico basato su esempi, la questione diventa complessa, perché, per certi versi, entra in gioco una qualche “soggettività” della macchina. Lavorando e decidendo solo sulla base di “esempi” non esiste spazio per una verificabile  “oggettività” della I.A., che se chiamata a “spiegare” le ragioni della sua scelta non saprebbe rispondere per il semplice fatto che le sue procedure non lo prevedono

Ø Il problema degli “esempi” che allenano il machine learning chiama in causa la gestione dei dati utilizzati per allenare le reti neurali delle macchine. Si parla di “dati” spesso “personali” che sono forniti, senza adeguata consapevolezza, dagli utenti della Rete tramite i suoi programmi e social. Entra quindi in gioco la più ampia, ed impattante, questione dei cosiddetti “big data”, della loro alimentazione, della loro gestione, delle necessarie modalità di controllo di tali flussi. Anche in questo caso la legge europea (ma non è così ovunque nel mondo) GDPR contiene alcune regole a tutela degli utenti della Rete, la più importante delle quali stabilisce che i dati personali sono di totale proprietà del soggetto e che non possono essere utilizzati salvo specifico “acconsento”. La questione quindi ha una valenza più ampia che riguarda le logiche di profitto dei “padroni della Rete

Ø Allo stesso modo anche il problema della possibile scomparsa di posti di lavoro a causa dell’utilizzo spinto della I.A. chiama in causa diverse componenti. E’ indubbio che le sue potenziali applicazioni accentueranno il già significativo l’impatto della robotica sul mercato del lavoro, ma esistono posizioni differenti sulle possibili conseguenze. Alcuni economisti sostengono che non si potrà evitare una generale contrazione dei posti di lavoro (negli ultimi anni, pur in presenza di importanti turbolenze economiche, il PIL globale è cresciuto mentre la forza lavoro impiegata è diminuita), altri invece pensano che la possibile perdita di alcune professioni sarà compensata dalla nascita di altre (al momento non esistono esperienze verificate di lungo periodo su cui calibrare l’analisi). Certo è che, al di là degli aspetti quantitativi, l’I.A. avrà un grande impatto sulla qualità del lavoro, tutti i lavori, le procedure produttive i servizi, saranno profondamente trasformati. E questo cambiamento radicale si sta già realizzando in tempi brevissimi (a differenza delle precedenti rivoluzioni agricola e industriale) tali da rendere ancora più complesso il governo di tale processo

Ø Sembrano altrettanto prossimi scenari in cui le guerre, e le armi che vengono usate per farle, saranno in gran misura affidate a macchine e programmi di I.A. (i droni da combattimento sono solo il primo, e ancora artigianale, esempio). E’ da brividi immaginare che in prossimo futuro il machine learning bellico (quali “esempi” verranno utilizzati?) decida le modalità dei conflitti armati. E’ una questione delicatissima, ed il dibattito politico e istituzionale al riguardo non sembra finora per nulla adeguato

Ø Difficile infine, con riferimento a queste problematiche e alle tante che si potranno aggiungere, valutare il salto di qualità che potrebbe venire da uno sviluppo esasperato della I.A. fino alla realizzazione di quella che viene definita “super Intelligenza Artificiale”. Il dibattito al riguardo non sembra basato su adeguate valutazioni. Nessuno ad oggi è  infatti in grado di delineare il comportamento di macchine I.A. in grado di gestire (in modo del tutto autonomo?), saperi, competenze, intelligenze, e conseguenti decisioni. Ma, fatta la tara agli eccessi polemici, la questione esiste.

Nell’ultima parte del suo saggio Francesca Rossi, proprio in relazione a questi (ed altri potrebbero essere aggiunti) decisivi interrogativi, ripercorre l’evoluzione della consapevolezza e del conseguente dibattito che da alcuni avviene nell’ambito del mondo scientifico (la sua specializzazione professionale verte, con posizioni di assoluto rilievo a livello mondiale proprio su questo). E’ innegabile, a suo avviso, che per tutta una lunga prima fase, durata almeno trent’anni fino al 2014 (anno del primo convegno interdisciplinare sul futuro della I.A.) l’attenzione degli addetti ai lavori sia stata esclusivamente rivolta allo sviluppo dei sempre più entusiasmanti progetti tecnici. Qualcosa si è poi messa in moto motivata proprio dal fiorire di prospettive tanto innovative quanto di evidente impatto (uno degli ispiratori di questa svolta di riflessione ad ampio raggio è stato Max Tegmark, del quale abbiamo pubblicato come “Saggio del mese” di Giugno 2018 “Vita 3.0. Essere umani nell’era della intelligenza artificiale”), e a Gennaio 2015 si è tenuto a Portorico un convegno (con la presenza, accanto ad esperti di I.A.,  filosofi, economisti, psicologi, e personaggi “visionari” come Elon Musk, e nel quale Francesca Rossi ha già avuto un importante ruolo di coordinamento) che ha segnato una significativa svolta tradotta in una lettera aperta indirizzata al mondo scientifico e ai governi di tutto il mondo (consultabile in Rete: https//futureoflife.org/ai-open-letter). In questa lettera si esprimevano forti sollecitazioni sulla necessità di sottoporre l’I.A. sotto controllo prima del suo possibile sviluppo in “Super Intelligenza Artificiale(questa possibile evoluzione è tecnicamente denominata “singolarità” per indicare il momento in cui le macchine, divenute più “tecnicamente intelligenti” degli uomini, potrebbero decidere che l’umano non è più necessario per gli stessi scopi che sono stati loro assegnati). Al convegno di Portorico ha fatto seguito, nel corso del 2016, un intenso e concreto lavoro (sempre condotto in modo interdisciplinare e con l’attivo coinvolgimento dei giganti del settore come Google, Microsoft, Apple, IBM) che ha portato all’approvazione nel 2017 di una sorta di “Statuto della I.A.” composto da 23 principi di base (anche questo consultabile in Rete: https//futureoflife,org/ai-principles), ormai considerati un punto di riferimento per ogni iniziativa finalizzata a mitigare i possibili effetti negativi della I.A. (fissano criteri per le modalità della ricerca, guardano a valori come privacy, trasparenza, responsabilità, libertà, condivisione globale dei benefici, preoccupazioni per la singolarità e per l’uso della I.A.in campo politico, legislativo, giudiziario) strettamente connesso agli “Obiettivi per lo sviluppo sostenibile” dell’ONU (https//www.un.org/sustainabledevelopment). Si tratta quindi di un confortante quadro di riflessioni che dovrebbero (come si suol dire: il condizionale è sempre d’obbligo) tracciare le linee guida dell’ulteriore sviluppo della I.A. che inizia ad avere riscontri anche sul piano politico. Ed anche in questo caso l’Unione Europea è decisamente all’avanguardia. La stessa legge GDPR, uno dei primi concreti provvedimenti legislativi in materia, è frutto del fattivo lavoro di un gruppo (sempre composto da competenze diverse ad ampio raggio e di cui Francesca Rossi ha fatto parte) nominato dalla Commissione Europea proprio per tradurre, adattandoli allo specifico contesto europeo, tali principi e tali obiettivi. Francesca Rossi chiude con una nota di ottimismo, alla quale tutti noi speriamo di aderire a fronte di concreti riscontri positivi, certo è che, come lei stessa riconosce …… la tecnologia cambia molto velocemente ….. e non pare che società, politica, cultura, opinione pubblica si sappiano muovere alla stessa velocità.



Nessun commento:

Posta un commento