giovedì 21 febbraio 2019

L'occhio della macchina - Articolo di Andrea Signorelli


Nel corso delle nostre conferenze e seminari dedicati al tema dei “futuri” ci siamo spesso confrontati con il tema dell’Intelligenza Artificiale. Lo abbiamo fatto aggiornando le nostre conoscenze, da inesperti totali, su cosa bolle in pentola ed esprimendo, con maggiore cognizione di causa, sbalordimento ma anche non poche perplessità sugli eccessi di entusiasmo tecnologico che sembra avvolgere questa nuova frontiera umana. L’articolo che qui pubblichiamo, tratto dalla rivista on-line La (Il) Tascabile, può fornirci ulteriori elementi di valutazione perché illustra, dal di dentro, alcuni dei criteri guida che stanno ispirando aspetti decisivi di questa ricerca. Criteri che cercano di coniugare gli aspetti tecnici con più generali considerazioni “umanistiche”. A dimostrazione che l’obiettivo finale delle macchine intelligenti ha caratteri di ambizione decisamente elevata. A voi decidere se questa considerazione attenua o accentua sbalordimento e perplessità al riguardo.


L’occhio della macchina
Storia e filosofia della visione artificiale,
 da Galileo Galilei al deep Learning.

Andrea Daniele Signorelli milanese, classe 1982, si occupa del rapporto tra nuove tecnologie, politica e società. Scrive per La Stampa, Wired, Il Tascabile, Pagina99 e altri. Nel 2017 ha pubblicato “Rivoluzione Artificiale: l’uomo nell’epoca delle macchine intelligenti” per Informant Edizioni.

Nel suo ultimo libro, L’occhio della macchina (Einaudi editore), Simone Arcagni racconta di uno dei primi esperimenti di laboratorio per dotare i computer di una visione artificiale. È il 1966 e siamo al laboratorio di Intelligenza Artificiale dell’MIT di Boston, fondato dal matematico Marvin Minsky. “Minsky propone allo studente Gerald Jay Sussman di passare l’estate provando a connettere una camera a un computer e chiedere alla macchina di descrivere cosa ‘vede’”. È un esperimento ingenuo per i canoni di oggi; immaginato quasi come se fosse sufficiente collegare una telecamera a un computer per creare un sistema in grado di vedere. “Minsky sa che il processo di apprendimento che prefigura la costruzione di una qualche forma di intelligenza, a partire dall’immagazzinamento di dati e informazioni, fino alla loro trasformazione ed elaborazione, avviene fondamentalmente attraverso la vista. L’intuizione è quella di dotare il computer di questa facoltà”. Da un certo punto di vista, questo esperimento ricorda i tentativi, falliti anche quelli, di creare una vera intelligenza artificiale dotandola di tutte le conoscenze dell’uomo: un meccanismo “dall’alto” secondo il quale, per esempio, sarebbe stato sufficiente dare in pasto a un software i dizionari e i libri di grammatica di italiano e francese perché imparassero a tradurre da una lingua all’altra. È un sistema che, nei casi in cui si seguono regole molto precise (come negli scacchi), ha portato a qualche successo, ma che certamente non poteva funzionare in settori pieni di sfaccettature come il linguaggio. Se ne accorse anche Marvin Minsky, vedendo fallire il suo esperimento: “È quello il momento in cui si è capito che non si poteva replicare l’occhio umano collegando una telecamera a un cervello informatico”, racconta a Il Tascabile Simone Arcagni. “L’idea era probabilmente venuta a Minsky dalla lettura del saggio di Alan Turing Computing Machinery and Intelligence, in cui sostiene che, per dotare la macchina di un vero cervello, sarebbe stato necessario fornirle prima la vista, l’udito, l’olfatto”. Noi capiamo le cose perché abbiamo esperienza del mondo, mentre la macchina non possiede questa esperienza. “Si riteneva quindi che il primo passo da compiere fosse proprio dotarla degli strumenti – i sensi – necessari a conoscere ciò che la circonda”. Ma da dove nascono le idee che hanno reso, oggi, la computer vision uno degli elementi fondanti dell’intelligenza artificiale, con applicazioni nel campo medico, delle auto autonome, della sorveglianza? Nei dodici capitoli del libro, Simone Arcagni riesce a ricostruire lo sviluppo di una disciplina informatica le cui origini più antiche risalgono al pensiero di Platone, e che trova invece le sue basi scientifiche moderne nel lavoro di filosofi come Leibniz, Pascal e Cartesio. Per poi arrivare agli sviluppi compiuti negli ultimi decenni: come vede una macchina? In cosa differisce la visione artificiale da quella umana e cosa succede quando queste si fondono nella realtà aumentata e virtuale? Arcagni scruta in profondità l’occhio della macchina, intraprendendo un viaggio matematico, cibernetico e algoritmico in uno dei settori più affascinanti dell’innovazione tecnologica. Un settore che compie un cruciale salto di qualità proprio quando, in seguito al suo fallimentare esperimento, Marvin Minsky comprende che l’approccio da seguire dev’essere differente. A questo scopo invita al MIT David Marr, neuroscienziato e informatico che inizia a studiare non solo il modo in cui noi vediamo, ma soprattutto come interpretiamo ciò che vediamo e come il cervello comprende, per esempio, cosa c’è in primo piano o cosa invece sia un contorno. David Marr inizia a studiare come insegnare alle macchine a comprendere tutto questo. “Le neuroscienze hanno permesso di capire che la funzionalità visiva di un computer non va immaginata come se fosse un occhio che si apre e si chiude o la cui pupilla si dilata. Quello che davvero importa è il sistema che ci permette non solo di vedere, ma anche di riconoscere gli oggetti, di memorizzarli, di interpretarli…”, prosegue Arcagni. “Tutto questo si è potuto fare quando si è cominciato realmente a studiare come vedono le persone e anche perché alcune persone vedono diversamente da altre o hanno delle anomalie visive”. È proprio con David Marr che si inizia a parlare di computer vision (il suo saggio fondamentale nel 1982, pubblicato postumo, si chiama Vision), anche se lui preferiva il termine neuroscienze informatiche, che trasmette più precisamente l’idea di comprendere tutti i significati che noi raccogliamo sotto il verbo vedere. “L’informatica ha vissuto per qualche momento l’idea e l’utopia di poter trasformare alcune funzioni biologiche umane ricreandole in maniera tecnologica”, racconta Arcagni. “Invece bisognava trovare una via macchinica, che copiasse solo alcune funzioni – come le reti neurali imitano le sinapsi”. Per l’apprendimento, per esempio, col tempo ci si è affidati al sistema opposto rispetto a quello “dall’alto”: lasciare che le macchine imparassero autonomamente, fornendo loro tutti i dati utili all’apprendimento di un determinato esercizio. Per il riconoscimento dei numeri scritti a mano, così, non si doveva insegnare alla macchina com’è fatto un 5, ma le si dovevano fornire decine di migliaia di numeri correttamente etichettati; dopodiché, sarebbe stato compito dell’algoritmo imparare in autonomia a distinguerli con precisione. È il metodo che ancora oggi è alla base del machine learning e degli algoritmi di intelligenza artificiale, che – nonostante imitino per certi versi il funzionamento del cervello – creano uno scarto decisivo rispetto all’idea di inserire forzatamente nelle macchine le conoscenze umane. “Lo stesso è avvenuto per l’occhio umano: si pensava di poterlo replicare sia in robotica sia in computer vision; poi ci si è resi conto che si doveva sviluppare un percorso in buona parte indipendente”. In poche parole, l’occhio della macchina non sarà mai l’equivalente artificiale dell’occhio umano, ma un sistema completamente differente con abilità diverse dalle nostre: “Da un punto di vista quantitativo, per esempio, la visione artificiale è più potente dell’occhio umano; basti pensare all’hyperimaging di IBM che permette di vedere cose che noi non potremmo mai visualizzare da soli e che arrivano anche da spettri non ottici. Questo non significa che la computer vision sia migliore dell’occhio umano – che per esempio ha qualità in termini di adattabilità e connessione con un cervello creativo che potrebbero essere irraggiungibili – ma che ha accesso a una dimensione quantitativa e a dati a cui l’uomo non può accedere”. Invece che procedere per imitazione, insomma, ci si deve muovere in direzioni completamente diverse. D’altra parte, anche solo parlare di vista può essere fuorviante. Quando si parla di computer vision – la tecnologia che, tra le altre cose, permette alle auto autonome di riconoscere e interpretare ciò che le circonda – si tende a immaginare che i sensori utilizzati dal software possano, letteralmente, vedere. Le cose non stanno così: “La macchina non vede niente, è cieca”, dice Simone Arcagni. “Siamo noi che le diciamo di interpretare in senso visivo alcuni dei dati che riceve. Per esempio, la maggior parte dei dati che riceviamo dalle sonde dello spazio non sono ottici. Quando sentiamo parlare di un apparecchio che ha visto oltre la galassia, in realtà non ha visto proprio niente; ha ricevuto dei dati che noi, dopo averli elaborati, possiamo riproporre come fossero immagini”. Tutto questo crea un elemento di rottura rispetto al passato, quando tutte le macchine ottiche – dal telescopio di Galileo in avanti – avevano la funzione di amplificare la potenza del nostro occhio. “Oggi invece stiamo creando macchine autonome, dispositivi molto complessi che elaborano dati, ma che non ripropongono e non potenziano le funzionalità dell’occhio. È anche per questo che sostengo che si debba studiare il settore del visivo digitale come se fosse una biologia”. Come se stessimo sviluppando una biologia artificiale con l’obiettivo di creare delle entità biologiche non viventi. “Non sono un transumanista o un seguace della singolarità, non sto dicendo che ci riusciremo; ma la via che stiamo intraprendendo è questa”. L’ibridazione di queste tecnologie con il cervello umano apre opportunità stupefacenti. “Si parla molto di impianti artificiali collegati ai nervi ottici per riparare malfunzionamenti della vista”, spiega Arcagni. “Un artista come il britannico Neil Harbisson, che in natura non riesce a distinguere i colori, si è fatto impiantare un’antenna nel cervelletto che capta i segnali visivi e gli consente, in un certo senso, di vederli”. L’antenna, infatti, cattura i colori grazie a un sensore e li converte in frequenze audio differenti; comunicandole ad Harbisson e permettendogli di superare un’anomalia congenita, l’acromatopsia, che limitava la sua visione a una scala di grigi. Sistemi futuristici, che potranno avere un grande impatto sulla società, e che affondano le loro origini in epoche antiche, secondo la visione di Arcagni. “Leonardo, Galileo, Cartesio e poi il Barocco a cavallo tra Seicento e Settecento”. È lì che nasce e si sviluppa l’idea della scienza come possibilità di comprendere il mondo e della matematica come linguaggio formale che permette di descrivere queste scoperte. “L’osservazione scientifica può essere metrizzata e riprodotta dal linguaggio matematico. Nel Barocco, poi, si passa dall’abaco alla pascalina di Pascal e alla macchina di Leibniz; sistemi che permettono di fare calcoli evoluti e arrivare in alcuni casi anche alla moltiplicazione. Di fatto, si tratta dei primi elaboratori. Ma questo è anche il secolo in cui ritorna l’interesse nei confronti degli automi e in cui si cercano di riprodurre funzioni umane complesse come, appunto, la vista”. La volontà di descrivere il mondo in termini matematici è alla base della rivoluzione digitale che stiamo vivendo oggi. È quindi in quei secoli che si gettano i primi semi della futura computer vision? “Nell’età barocca si perfezionano le lanterne magiche e la camera oscura; è il periodo in cui si concepisce un’idea nuova di visivo. Andando a ritroso, ovviamente, tutto questo non nasce all’improvviso, ma con il metodo cartesiano, con Galileo e Leonardo e quindi arrivando fino al Rinascimento; quella è già un’epoca in cui si inizia a vedere la matematica come il linguaggio della costruzione del mondo”.  Sotto questo aspetto, un passo fondamentale è sicuramente la scoperta della prospettiva: “La prospettiva è l’applicazione matematica di concetti visivi; non poteva che nascere in una società che l’aveva eletta a suo linguaggio primario”, spiega Arcagni. E allora l’importanza di Piero della Francesca è cruciale, perché “la sua prospettiva è quella non solo più affascinante, ma ancora oggi la più perfetta dal punto di vista scientifico. Il lavoro matematico e geometrico che ha svolto è qualcosa di incredibile”. D’altra parte è proprio il Rinascimento l’epoca in cui viene “metrizzata” la visione del mondo. “Cominciano a prendere potere i mercanti, che hanno bisogno di contare i loro denari e quantificare con precisione le merci da caricare sulle navi. Ed è sempre nel Rinascimento che nascono le banche e gli assegni, assieme alle proiezioni geometriche e agli assi cartesiani”. Ovviamente, nulla nasce dal nulla e risalire alle origini della visione scientifica che ha posto le basi della rivoluzione digitale ci porta ad attraversare il Medioevo (“Non è un caso che il protagonista de Il nome della rosa, che cito in apertura del mio libro, porti gli occhiali: è il simbolo della sua volontà e necessità di capire”) e approdare, inevitabilmente, a Platone e al Mito della Caverna. “È quello il primo momento in cui viene teorizzata l’idea che il visivo non sia solo ciò che vediamo, ma sia anche l’interpretazione di quello che vediamo e il riflesso di quello che vediamo”. Non c’è solo Platone: anche Democrito, Pitagora, Epicuro, Lucrezio; sono i primi che hanno l’idea di un mondo che non sia più continuo (e quindi analogico) ma discreto. “Gli atomi di Lucrezio o i numeri di Pitagora, per esempio, vanno a comporre un universo complesso in cui tutti gli elementi sono correlati l’uno all’altro. Ed è proprio questa l’idea forte del digitale e dell’informatica, come della teoria del caos e della complessità. Non sono solo, ancora oggi, elementi fondamentali della scienza, ma anche del nostro modo di vedere il mondo”.

Nessun commento:

Posta un commento