lunedì 26 giugno 2023

Tecnosofia - l'umanesimo incontra la scienza - Articolo di Piero Banucci

Pubblichiamo il seguente articolo, segnalato dalla nostra socia Carla Toscano, in cui Piero Banucci, più volte relatore alle nostre conferenze, recensisce il saggio “Tecnosofia”, di Maurizio Ferraris e Guido Saracco, che affronta l’attuale evoluzione del progresso scientifico ed il suo rapporto con il sapere umanistico, tema al quale abbiamo prestato più volte la giusta attenzione

Tecnosofia, l’umanesimo

 incontra la scienza

Maurizio Ferraris, professore di filosofia teoretica, e Guido Saracco, ingegnere chimico e rettore del Politecnico di Torino, tracciano un progetto di rilancio per la società e l’economia del nostro paese

Articolo di Piero Banucci – La Stampa del 23 Giugno 2023

Scuola d’Atene – Affresco di Raffaello Sanzio (Stanze Vaticane)

Nel 1972 Adriano Celentano cantava “Un albero di 30 piani”. Il numero è un compromesso tra metrica e urbanistica. Nel mirino del cantante c’era il grattacielo Pirelli di 33 piani ora sede della Regione Lombardia ma 33 non andava d’accordo con il ritmo della ballata. Quella canzone fu il manifesto pop della “decrescita felice” poi teorizzata da Serge Latouche all’Université de Paris Sud. Era l’alba del movimento ecologista: il 24 dicembre 1968 l’umanità – all’epoca 3,5 miliardi di persone, meno della metà di oggi – per la prima volta aveva visto la Terra come una fragile pallina azzurra inquadrata dagli astronauti dell’Apollo 8 che circumnavigavano la Luna.

Un minotauro concettuale

Maurizio Ferraris, ordinario di filosofia teoretica all’Università di Torino, nasce nel 1956, l’anno che precede la Nuova 500 Fiat, simbolo del miracolo economico italiano, e il primo satellite artificiale – lo Sputnik, lanciato dall’Unione Sovietica il 4 ottobre 1957. Con Ferraris la filosofia torinese ha regolato definitivamente i conti con l’antiscientismo di Martin Heidegger e seguaci. Guido Saracco, ingegnere chimico, attuale rettore del Politecnico di Torino, nasce nel 1965 – il Pirellone svettava da cinque anni davanti alla stazione centrale di Milano – e abita per i primi 33 anni della sua vita in un palazzo di 9 piani rivolto verso le Officine Grandi Riparazioni (OGR) che ora ospitano mostre d’arte, startup e un ristorante. Sono dati utili per situare nelle giuste coordinate il libro che Ferraris e Saracco hanno scritto insieme dandogli un titolo che suona come un minotauro concettuale: “Tecnosofia” (Laterza, 185 pagine, 20 euro).

Scalare nove piani

Il palazzo di 9 piani è un punto di osservazione sui cambiamenti sempre più rapidi del nostro tempo; scalarlo diventa la metafora delle sfide sociali, conoscitive, etiche e politiche che ci attendono. Tecnosofia riassume il programma di una “scienza nuova” che Ferraris e Saracco elaborano facendo convergere scienza e umanesimo in un minotauro amico e illuminato, pur rendendosi conto di quanti ostacoli frappongano i pregiudizi e i luoghi comuni correnti alla loro operazione di ingegneria intellettuale.

Capitalismo prometeico

Tre assiomi guidano la scalata: 1) il progresso è un valore inerente alla nostra natura di animali culturali; 2) di conseguenza “la tecnologia è un farmaco”: l’unico, non esiste un ritorno all’Arcadia; 3) “il capitale è lo strumento più potente” che abbiamo a disposizione.

Tradotto in sistema, il capitale diventa “capitalismo”, termine all’origine di ambiguità e conflitti violenti, al punto che in un recentissimo saggio pubblicato con il Mulino Alberto Mingardi, docente di storia delle dottrine politiche, suggerisce di sostituirlo con “innovismo”, neologismo di cui, peraltro, è facile prevedere l’insuccesso. Procedendo nella lettura si capirà tuttavia che i due scalatori intendono sì il capitale come accumulo economico da investire, ma ne ricuperano “il carattere faustiano e prometeico” che non sfuggì a Marx. In questo senso il capitale più importante è rappresentato dalla conoscenza, dalle risorse umane e dai valori senza i quali il capitale rimane sterile e si chiama finanza.

L’ascensore rotto

Al livello terreno dell’edificio di nove piani c’è l’ascensore. Nella metafora si tratta di un ascensore sociale, e oggi è rotto. Ripararlo è la prima cosa da fare. Non c’è progresso, anzi, non c’è giustizia né democrazia, se l’ascensore sociale non funziona. Il “miracolo economico” degli Anni 50 e 60 fu essenzialmente dovuto a meccanismi di mobilità tra le classi dei lavoratori (da contadino a operaio, da operaio a impiegato, da dipendente a libero professionista etc.). Altrettanto importanti furono i meccanismi di distribuzione della ricchezza prodotta. Sono due fattori fondamentali che oggi mancano.

Da troppo tempo l’Italia non tiene il passo con i paesi più avanzati. Non ci si dovrebbe rassegnare al declino recuperandolo in modo consolatorio come “decrescita felice”, dicono Ferraris e Saracco. Si scoprirebbe facilmente che la decrescita non può essere felice e che la natura è natura, di per sé né buona né cattiva ma certamente matrigna se l’uomo svolge il suo ruolo di Homo sapiens. Non si vive senza farmaci sempre migliori, trasporti sempre più efficienti, energia sempre più pulita, agricoltura sempre più produttiva. Scienza + tecnologia + umanesimo è la formula che emerge dalla tecnosofia di Ferraris e Saracco.

Salita alla terrazza con vista

Sarebbe interessante ma troppo lungo risalire analiticamente i nove livelli dell’edificio costruito sul terreno della “natura”. Filosofo e tecnologo dialogano di web e tracciamento al primo piano (un cardine per Ferraris), di capitale umano e infosfera al secondo piano (in contrasto ontologico con la visione di Luciano Floridi, filosofo dell’informazione a Oxford), discutono sulla docusfera (altro cavallo di battaglia di Ferraris) al terzo piano. Al quarto piano, quello dell’antroposfera, incontriamo il capitale umano; al quinto la biosfera, cioè il capitale ecologico; al sesto la noosfera, vale a dire il capitale della conoscenza; al settimo i valori (axiosfera) identificati con il “patrimonio dell’umanità”; all’ottavo le specifiche capacità individuali che esigono il giusto riconoscimento del merito di ognuno e di tutti; al nono piano il tema dell’equa distribuzione dei beni (°a ognuno secondo i suoi bisogni”).

Arrivati in cima, si esce sulla terrazza con vista. Vista sul futuro, essenzialmente, con le sue promesse e i suoi spettri. Promettenti macchine intelligenti che potrebbero diventare spettrali se messe in mano a stupidi o disonesti. Il filosofo le esorcizza: “la macchina assoluta, ossia l’intelligenza artificiale, consiste esclusivamente nella registrazione e nella elaborazione delle forme di vita umana, ossia si alimenta esclusivamente di sangue umano ma, a differenza dei vampiri, non ha alcuna urgenza, bisogno o pulsione”. Tranquilli, “i computer non sono interessati a prendere il potere più di quanto un leone possa essere interessato a giocare a rubamazzetto”.

Il salvagente di Condorcet

Già, ma al potere sono interessati i modelli umani dai quali l’IA apprende; è ben noto come i programmatori, consciamente o non, traferiscano nei loro algoritmi pregiudizi, valori e disvalori. Su quegli algoritmi e sui dati (in gran parte nostri) che rastrella nel cloud, la macchina intelligente potrà sviluppare meta-algoritmi via via più lontani dai presupposti di partenza, amplificando in modo incontrollato gli errori, le divergenze o semplicemente l’incompletezza dei dati a cui ha attinto. Neppure gli specialisti che progettano sanno che cosa succede tra l’input e l’output delle loro reti neurali.

Si scivola così su un terreno controverso e si aprirebbe un lungo discorso, che qui non toccheremo. Conviene afferrare il salvagente lanciato nelle ultime righe da Condorcet – “Non è stato posto alcun limite al perfezionamento delle facoltà umane” – e dagli stessi scalatori: “i nove piani che abbiamo percorso” sono tutti suscettibili di miglioramenti, “ma tutti migliori dell’abisso da cui viene l’umanità allo stato di natura”.

Cauta navigazione nell’arcipelago

Osservazione a margine. Certi temi sono nell’aria. Il lavoro di Ferraris e Saracco è un tentativo generoso di mettere ordine nella complessità del nostro mondo. Il fisico teorico Ignazio Licata tenta la stessa impresa con “Arcipelago” (Nutrimenti, 246 pagine, 17 auro), in libreria dal mese scorso. L’obiettivo è sempre arrivare a una visione sistemica del mondo, nel caso di Licata disegnando, con le teorie della complessità e della computazione, una mappa dove trovino posto i meccanismi della mente umana, la cultura, il lavoro, la comunicazione e la tecnologia, Intelligenza Artificiale inclusa. Anche Licata cerca una via di uscita ottimistica: “riappropriarsi della virtualità come strumento politico di liberazione”. Ma, rispetto all’assertività fiduciosa di Ferraris e Saracco, si muove con titubante cautela: “L’epistemologia della complessità mostra come mai era accaduto prima nella scienza che l’osservatore è qualcuno che scommette sulle emergenze di una nuvola di eventi possibili”.


giovedì 15 giugno 2023

Il "Saggio" del mese - Giugno 2023

 

Il “Saggio” del mese

 GIUGNO 2023

Alcuni articoli di presentazione, e soprattutto una bella intervista radiofonica, hanno fatto scattare una curiosità che si è presto collegata con l’idea, già coltivata da tempo, di proporre una lettura in qualche misura “inconsueta” per questo nostro blog. Il tema del “Saggio” di questo mese lo è sicuramente per certi aspetti, quelli suoi più specifici, ma non manca comunque di una evidente relazione con l’insieme delle riflessioni che CircolarMente da tempo propone. Stiamo parlando di …..

il cui autore è Vittorio Lingiardi

(Vittorio Lingiardi, psichiatra e psicanalista, professore di Psicologia dinamica alla Sapienza di Roma, Presidente della Società per la ricerca in Psicoterapia, autore di numerosi saggi)

E’ lo stesso Lingiardi a premettere l’azzardo di un’opera che affronta la complessità di un tema sul quale l’uomo da sempre si interroga. Questo suo saggio non ha quindi l’ambizione di aggiungere una personale interpretazione del mondo dei sogni, quello che ci propone, ben richiamato nel sottotitolo “Un viaggio onirico” è una esplorazione di come il sogno abbia accompagnato, interrogandola e facendosi interrogare, l’umanità fin dalla notte dei tempi. Seppure limitandosi a farci da guida nel mare di quanto è stato detto, scritto, rappresentato, Lingiardi chiarisce che anche così l’orizzonte resta troppo vasto. Da qui la sua scelta di proporci tre percorsi, tre itinerari, che raccontano le tre grandi tappe del viaggio dell’uomo nel mondo del sogno: la prima, “Divinazioni”, racconta la visione antica, classica, durata fino all’irruzione, sconvolgente, della seconda, quella della “Interpretazioni”, iniziata nel 1900 con l’opera di Freud, ed infine la terza, quella contemporanea delle “Neurovisioni”, proposta dalle neuroscienze. Lingiardi illustra questo viaggio onirico affidandosi a citazioni, collegamenti, incursioni in altre discipline, con una scelta quindi tanto intrigante quanto complicata, al limite dell’impossibile, per essere tradotta nella forma consolidata dei nostri post. Ci siamo pertanto limitati a proporre un “racconto del suo racconto”.

…… anche noi siamo fatti della materia di cui sono fatti i sogni ………

(Prospero, Atto IV, Scena I, “La tempesta” di William Shakespeare)

DIVINAZIONI

E’ dal mondo greco che prende l’avvio il viaggio, dalle loro notti sognanti popolate di nomi: Hypnos, il dio del Sonno, generato da Nyx, la dea della Notte, gemello di Thanatos, il dio della Morte, e padre di Morfeo, dio del Sogno, con i cui doni tutta la cultura greca ha sempre avuto un strettissima relazione. Sogna Agamennone che, ingannato da Zeus nelle vesti di Nestore, suo consigliere, viene così indotto ad attaccare Troia. E sogna Penelope (Ulisse è appena tornato ad Itaca nella sua reggia, ma ancora non si è rivelato. Penelope gli racconta di aver sognato un’aquila che sgozza venti oche, chiara anticipazione dell’uccisione da parte di Ulisse dei venti Proci) e, raccontando dell’angoscia provata nel sognare, chiede allo sconosciuto, Ulisse è ancora sotto mentite spoglie, il significato di tale sogno. Questi due esempi omerici bene raccontano di come per i Greci il sogno sia uno dei modi che gli dei hanno per parlare agli uomini, ma anche che spesso il sogno si presenta come mistero da decifrare. Sono esattamente i due aspetti che compongono quella che Lingiardi chiama “divinazione”, l’idea del sogno della Grecia classica: da una parte l’ispirazione diretta da parte della divinità e dall’altra l’interpretazione del messaggio. Non a caso i greci non usavano dire “ho fatto un sogno”, ma “ho visto un sogno”, proprio perché lo vivevano come un’esperienza che veniva da fuori, da altri provocata. Peraltro, spostandoci in altre culture, non diversamente sogna Gilgamesh il re sumero dell’antichissima Uruk (protagonista di un racconto epico della Mesopotamia), e allo stesso modo vivevano i loro sogni gli ebrei dell’Antico Testamento, ce lo attesta, fra i tanti altri, quello di Giacobbe (sogna una scala alta fino al cielo, la risale fino a comparire di fronte a Dio che gli annuncia che diverrà Re della terra sulla quale sta dormendo). Il Dio del racconto biblico si manifesta spesso al popolo eletto, se lo fa durante le ore del giorno le sue parole sono chiare, ma se lo fa di notte, nel sonno, le parole diventano oscure, vanno interpretate, e questo è lavoro da profeti. Erano tre i tipi di sogno per gli Ebrei: “naturale”, il più comune che racconta i fatti della vita, “profetico”, quello di profeti e patriarchi che devono fare da tramite con il popolo, e “custode”, quello che possono sognare tutti, ma che è ancora più simbolico. Popoli diversi, culture diverse, dei diversi, ma per tutti il sogno, proprio perché inteso come divinazione, ha una sola direzione: il “domani”. Sempre dice all’uomo quello che gli succederà, quello che potrebbe/dovrebbe fare, a patto di saperlo interpretare, l’essere rivolto verso il futuro rappresenta quindi un tratto caratterizzante del sogno della classicità. Ed è con questo tratto distintivo che, alcuni secoli dopo nel II secolo d.C., compare, restando a lungo caso a sé (tanto da essere visto per molti secoli come una sorta di Bibbia del sogno, e ad essere apprezzato dallo stesso Freud), il primo tentativo sistematico d’interpretazione dei sogni: il trattato in ben cinque volumi di Artemidoro di Daldi (scrittore e filosofo greco di Efeso, da non confondere con l’omonimo Artemidoro di Efeso, il presunto autore del famoso papiro rivelatosi poi un falso) Lo slancio onirico verso il tempo a venire viene qui codificato e tradotto in una sorta di disciplina, l’oniromanzia (l’arte divinatoria basata proprio sull’interpretazione dei sogni), che decodifica un gran numero di possibili sogni sempre introdotti con lo stesso incipit: ….. un tale sognò di ….. La casistica con Artemidoro si ampia a dismisura, ma resta valida la distinzione di base fra quelli, definiti enypnion, che valgono come banali eventi notturni, e quelli, definiti onar, che sono invece preziose profezie da interpretare (Lingiardi per spiegarlo riprende quello il di Penelope che, nel raccontarlo ad Ulisse, afferma che sono due le porte da cui i sogni fanno ingresso nel sonno: una ha battenti di duro corno, l’altra di luccicante avorio. Da questa passano i sogni ingannevoli, dalla prima quelli fidati che si avverano). Artemidoro ha un altro grande merito: la raccolta di così tanti sogni è in effetti un vivo e sincero ritratto dell’umanità del tempo, delle sue paure e speranze, in fondo è un testo che pur parlando sempre della notte finisce per dire molto anche del giorno. Non mancano in questo panorama voci diverse: una è sicuramente quella di Lucrezio nel suo De rerum natura. Contemporaneo di Artemidoro e fedele all’atomismo epicureo (riprende anche concetti di Democrito) non teme di affermare che i sogni non hanno sempre potenza divinatoria, una parte di loro altro non è che l’effetto di particelle, in forma di simulacra, che si staccano dal mondo fisico per entrare nel sonno umano, un’altra parte ancora sono quelli generati da stimoli particolari, gli eidola (idoli), immagini degli dei, ma anche delle anime dei morti. Tutti comunque mantengono sempre lo sguardo rivolto verso il futuro (quella di Lucrezio è in effetti la prima distinzione, per quanto incerta e approssimativa, fra una origine fisica del sogno ed una incorporea, metafisica, una sorta di anticipazione delle idee di sogno delle neuroscienze). E già Aristotele si era posto, alcuni secoli prima, sulla stessa falsariga definendo il sogno come risultato incontrollato e incontrollabile di piccoli stimoli fisici che si manifestano nel sonno. Ma il controcanto più significativo al sogno come “divinazione” lo si trova nel pensiero socratico e platonico, per i quali chi ci parla nel sogno non sono sempre e solo gli dei, ma spesso la nostra anima sua inseparabile compagna. Il divino non scompare, ma per Socrate è proprio la voce notturna degli dei che ci invita a prenderci cura più di ogni altra cosa della parte più importante di noi, la psychè (l’anima, lo spirito). E’ soprattutto in Platone che si possono cogliere i primi più definiti segnali di un approccio al sogno che smette di essere dimensione a sé dominata dal divino per divenire un’unica cosa con la veglia, l’unione di notte e giorno (ed è rilevante notare che, quasi in contemporanea, il filosofo cinese Chuang Tzu pensasse la stessa cosa. E’ famoso il suo apologo “ho sognato di essere una farfalla, al mio risveglio però non sapevo se ero un uomo che aveva sognato di essere farfalla o una farfalla che stava sognando di essere uomo”) per quanto spesso si manifesti come “dubbio iperbolico”. E se, come per Socrate, la vita onirica è quella che contiene gli aspetti più veri e profondi dell’anima, ciò non significa che essi siano sempre le sue parti migliori (i sogni saranno malvagi se chi li sogna è malvagio, sono buoni se il sognatore è un buono). Per Platone quindi non esistono “porte di corno e porte d’avorio”, i sogni sono tutti veri perché tutti raccontano una parte della nostra anima. La caratteristica etica del sogno inizia con Platone, ma avrà nel pensiero cristiano di Agostino un significativo sviluppo, persino anticipatore della futura idea di “inconscio”. Nelle sue Confessioni racconta infatti che, preoccupato dal sognare sogni impuri, nonostante la sua diurna scelta dell’astinenza, chiede a Dio “in quei momenti dov’è la ragione che durante la veglia mi fa resistere?”. Lingiardi è convinto che la lunga fase della “divinazione” si chiuda proprio con l’insorgere di domande come questa, che aprono nuove “porte” che guardano alla parte di noi che emerge nel sogno per ribellarsi ai pensieri diurni.

INTERPRETAZIONI

…… ho le mani nei capelli, pretendo di raccontare in un capitolo che cos’è il sogno per la psicanalisi ….. inizia con questa confessione il viaggio di Lingiardi nel nuovo mondo che si apre con l’uscita nel 1900 (il testo era già pronto l’anno prima ma Freud volle espressamente che uscisse nel primo anno del nuovo secolo consapevole della rivoluzione che avrebbe comportato) del testo freudiano “L’interpretazione dei sogni”, un testo che (per quanto discutibile e discusso) ha segnato una radicale cesura per l’intera scena culturale occidentale.

Freud (1856-1939):


“L’interpretazione dei sogni” non è riducibile alla forma classica del “saggio”, è al tempo stesso anche una autobiografia (parte dai suoi personali sogni), una personale elaborazione di un lutto (quello del padre), un catalogo onirico (contiene 226 sogni).  L’idea di partenza è che il sogno abbia sempre un senso, un significato, in particolare quello di un “appagamento di un desiderio”, che possono essere indagati, che devono essere indagati nel caso di patologie psichiche, un’idea rifiutata dalla comunità scientifica del tempo che ancora considerava il sogno un inutile fenomeno neurologico. Una intuizione che Freud sviluppa anche per gestire le personali difficoltà emotive legate alla morte del padre, in questa fase di autoanalisi alcuni suoi personali sogni gli sembrano fornire indizi preziosi (il più famoso di questi sogni è quello di “Irma”, nome fittizio per indicare due sue pazienti curate con scarso successo, nel corso del sogno Freud ha dialoghi conflittuale con la stessa Irma e con altri medici che l’hanno seguita). La personale necessità di trovare elementi per auto-analizzarsi lo induce a recuperare i propri sogni (parte anche da qui la sua idea di analisi e della necessità di farsi dire dal paziente “tutto quello che passa per la testa, i sogni in particolare”), e riflettendo su quello di Irma comprende che quel sogno rivela la sua fin lì inconsapevole speranza di non essere incolpato per le sofferenze provocate dal suo insuccesso: sta in questo passaggio la genesi della sua idea di sogno come “appagamento di un desiderio”. Ma se il sogno altro non è che un prodotto dell’inconscio saperlo decodificare rappresenta una preziosa porta, “la via regia che porta alla conoscenza dell’inconscio”, per potervi accedere, e questa porta ha il nome di “interpretazione dei sogni”, la tecnica che consente di estrarre da un “sogno manifesto” il suo “contenuto latente”. Per Freud il sogno non è di per sé l’inconscio, ma “una forma particolare di pensiero resa possibile dalle condizioni di stato del sonno, la forma nella quale un pensiero scartato dal preconscio ha potuto rifondersi”. Se quasi tutti i sogni, nel loro essere l’appagamento di un desiderio, si comportano da “custodi del sonno” annullando con il loro fittizio appagamento ogni tensione, ogni preoccupazione, alcuni si manifestano al contrario, fino ad essere dei veri e propri incubi, con segni di preoccupazione, di punizione, di “contro-desiderio”. Ma per Freud restano, anche questi, segnali evidenti di desideri che sono però in conflitto con il contesto etico, estetico, sociale, culturale, nel quale il sognatore vive “da sveglio”, nasce proprio da questo contrasto, che viene gestito dall’Io con una forza psichica, “la censura”, il loro manifestarsi sotto forma di tensioni e senso di oppressione ….. per aggirare l’attività censoria della coscienza, i desideri inconsci si travestono, si deformano …. Ed è sempre legato alla “censura” il frequente dimenticarsi dei sogni fatti. Se dunque i sogni, e a maggior ragione proprio quelli più tormentati, formano per queste loro caratteristiche la “via regia all’inconscio”, per coglierne il vero significato, e le possibili collegate patologie, occorre indagare sugli “elementi dinamici della formazione del sogno” su quello che si può definire il “lavoro onirico”. Freud lo fa codificando, sulla base dei 226 sogni analizzati, un lungo elenco di “simbolizzazioni” e alcuni fondamentali processi di costruzione del sogno: “la condensazione”, “lo spostamento”, “la trasformazione(in elementi noti ai sensi), “l’elaborazione secondaria(quella che avviene appena prima del risveglio per rendere il sogno più coerente). Sono i primi due quelli più importanti: “la condensazione” è la sintesi di più significati latenti in uno solo, quello con contenuto più manifesto, mentre “lo spostamento” opera in due modi: sostituisce un elemento latente con uno meno facilmente decifrabile, oppure chiama in gioco altri elementi marginali che celano quello centrale. In sintesi per Freud (che ha costruito proprio sui sogni l’architrave della sua concezione di “inconscio”) il sogno (che la “divinazione” declinava con uno sguardo rivolto al futuro) racconta il passato” accumulato nell’inconscio ed il suo scontrarsi con le complicazioni del presente. Non ha quindi “valore in sé” ma come “contenitore di pensieri latenti” che rivelano i nostri desideri ed i conflitti che da essi possono nascere.

Jung (1875-1961)

la netta svolta impressa da Freud alle precedenti consolidate idee del sogno vede da lì a poco una contrapposta evoluzione tanto clamorosa quanto imprevista perché impressa da quello che era considerato il “delfino” di Freud, Carl Justav Jung. Per quanto lo stesso Jung ci tenesse a ribadire di non possedere una teoria dei sogni, dall’insieme delle sue opere ne emerge una ben precisa anche se, a differenza di Freud, non trattata in modo sistematico. La spiegazione consiste nel fatto, che segna il distacco dalle idee freudiane, che per Jung il sogno è una funzione “autonoma rispetto alla coscienza”, non è un prodotto dell’Io, ma “un evento che lo investe”. E come tale è autonomo anche rispetto alla psicanalisi. E’ come se ognuno di noi fosse abitato da un altro essere che ci parla proprio attraverso i sogni e che, in questo modo, ci aiuta a definire la nostra stessa identità in un costante lavorio che avviene sulla linea di confine tra “coscienza e inconscio”. Da questo lavorio scaturiscono le molteplici situazioni mentali che accompagnano il nostro vivere, quali quelle di “compensazione”, che possono positivamente contribuire al loro equilibrio (in questo caso la domanda da porsi è: quale atteggiamento cosciente questo sogno sta “compensando”?), oppure quelle di “anticipazione”, che possono aiutare a capire esigenze e speranze altrimenti “coperte”. Questa consapevolezza è fondamentale per indirizzare un eventuale lavoro psicoanalitico che per Jung, in questo lontanissimo da Freud (che indaga le “cause” del sogno), diventa invece quello di indagare gli “scopi” contenuti nei sogni (una sua frase bene lo esplicita: “il materiale onirico non consiste solo di ricordi, ma racchiude anche nuovi pensieri che non sono ancora coscienti”). Siamo, va da sé, lontanissimi dalla divinazione degli antichi, ma il capovolgimento junghiano verso un possibile futuro (rispetto alla sguardo volto verso il passato di Freud) contenuto nei sogni ridà comunque un qualche spazio anche alle voci del passato, che però non è tanto e solo quello del sognatore, ma è anche il riaffiorare (aspetto centrale del pensiero di Jung che crede fermamente ad un “inconscio collettivo”) di “contenuti collettivi che abitano il sogno con le loro immagini primordiali, universali, sedimento delle esperienze archetipe dei nostri antenati trasmesse in via ereditaria come memoria storica inconscia”. In questa loro evidente divergenza Freud e Jung condividono però, non casualmente, l’identica matrice dai propri personali sogni, quelli di Freud legati, come si è visto, al lutto del padre, quelli di Jung indici di paure ed insicurezze ad entrare nel mondo “dei grandi” (diceva: “l’intera mia vita è la storia di una autorealizzazione dell’inconscio). Anche questo aspetto aiuta a comprendere la “autobiografica” genesi del loro modo di intendere il sogno: se per Freud era il “custode del sonno”, la “via regia per conoscere l’inconscio”, per Jung il sogno diventa, come urlo rivelatore di scopi, “il disturbatore del sonno”, e “la via regia per l’inconscio non sono i sogni, bensì i complessi che li causano

Bion: (Wilfred Ruprecht Bion, 1897–1979, psicoanalista britannico)


Lo scontro tra i due grandi della psicanalisi novecentesca è il terreno sul quale si è formato il pensiero del terzo grande modello di sognonovecentesco.  Per Bion (psicanalista molto apprezzato in ambito scientifico ma poco conosciuto dal gran pubblico) il sogno non è “la protezione del sonno che dà soddisfazione ai desideri”, come pensa Freud, ma neppure “la rivelazione di origine mitica delle nostre proiezioni”, come sostiene Jung, il sogno è invece una sorta di “laboratorio sempre in attività”, una attività così necessaria per i nostri pensieri tanto “da svolgersi sia di notte che di giorno”. Questo perché per sogno, o meglio ancora per “sogno necessario”, Bion intende la capacità, che denomina “funzione alfa”, della nostra mente di “lavorare sugli stimoli che provengono dal mondo e dal corpo in forma di impressioni emotive-sensoriali non elaborate (elementi beta) trasformandole in immagini (elementi alfa) che rendono possibili pensieri consci ed inconsci”.  Il sogno, inteso come permanente stato mentale, è quindi per Bion l’usuale terreno di lavoro della funzione alfa ed il sognare altro non è che l’espletarsi di questa attività. Tutta l’attività onirica non è per nulla una “allucinazione” che nasconde (Freud), ma è un “continuo pensare che metabolizza e trasforma emozioni e sensazioni”. Emerge qui un’altra fondamentale differenza con Freud e con Jung: per i quali (seppure con le differenze di cui si è detto),il sogno è un prodotto dell’inconscio”, per Bion, come ovvia conseguenza della funzione alfa, è esattamente il contrario, è “il sogno che produce l’inconscio”. Nel senso che gli elementi alfa possono dare origine sia a pensieri consci che inconsci, con i primi che mantengono i contenuti nella loro forma ed i secondi che li elaborano in storie immaginarie che devono essere decifrate riandando agli elementi beta che le hanno prodotte. Bion è quindi il vero cultore del sogno (notturno e diurno), che vede come “elemento strutturante della vita mentale, dello sviluppo della personalità”, della formazione del pensiero. Nella scia dei tre grandi interpreti novecenteschi del sogno è succeduta, in campo psicoanalitico, una mole impressionante di approfondimenti, variazioni, riprese, contestazioni (accompagnate da una, parallela e non casuale,  costante presenza del sogno in tutte le arti) dalla quale Lingiardi si limita a recuperare le figure di:

Thomas Ogden (1946, psicanalista statunitense)


Al rigore dell’analisi scientifica Ogden ha abbinato una grande attenzione verso la poesia, capace a suo avviso di aprire orizzonti interpretativi a partire proprio dai sogni. Mentre si sogna, e allo stesso modo quando si crea poesia, la mente guarda alle cose “da più punti di vista e con diversi momenti temporali” incurante di concrete destinazioni, trascinata solo “dal proprio stesso movimento”. L’idea del “sogno/poesia”, così inteso, capovolge l’intero percorso onirico che va vissuto non più “per rendere cosciente l’inconscio”, ma al contrario come una tensione a “rendere inconscio il conscio”, immergendo l’esperienza cosciente in più ricchi processi di pensiero inconscio

Philip Bromberg (1931-2020, psicanalista statunitense)

Per Bromberg il sogno è invece “un diverso stato di coscienza”. Riprendendo il filosofo greco Zenone e la sua idea dell’uomo “abitato da molti séè convinto che una buona salute mentale consista proprio nella capacità di gestire questa diversità interiore, di “restare fra gli spazi dei nostri molti sé”, ed in questo incessante flusso interiore il sogno diventa esattamente questo: una “costante mediazione degli stati interni di dissociazione”. In più non è soltanto “un luogo dove risuonano le voci dei nostri tanti sé”, ma è il modo in cui perveniamo ad un diverso stato di coscienza capace di creare “nuove forme di integrazione e dialogo tra di loro”. Queste figure di psicanalisti presentate da Lingiardi sono solo alcune delle più significative voci di una disciplina che nel corso del Novecento (occidentale) ha acquisito, anche grazie alla sua visione di sogno, rilevanza clinica e attenzione diffusa. Nella pratica clinica il ruolo del sogno, al di là delle sue diverse declinazioni, è assolutamente centrale, le esperienze che di conseguenza si sono sin qui accumulate consentono una “classificazione” delle forme che con le quali esso può manifestarsi indipendentemente dalla sua interpretazione. Secondo Lingiardi quelle più ricorrenti e di maggiore interesse sono:

*   il sogno “nevrotico” = quello che presenta una narrativa ricca, persino iper-articolata, con un “qui ed ora(solo in parte interrotto da incursioni del passato), che consente al sognatore un suo racconto accompagnato da una gestibile tensione emotiva

*   il sogno “borderline” = quello delle persone con disturbi di personalità “al limite(instabilità delle relazioni interpersonali, dell'immagine di sé e dell'umore e da una eccessiva impulsività) che si manifesta in situazioni di angoscia che ripetutamente riprendono le possibili cause traumatiche e i conflitti relazionali. Il sognatore manifesta confusione tra “sogno e realtà

*   il sogno “psicotico” = quello fatto di immagini, di sé e del mondo intorno, frammentate, deteriorate, mutilate, bizzarre, non di rado terrificanti, che esprimono alti livelli di stress. Non sono necessariamente frequenti, ma il loro impatto è tale da impedire un loro racconto e quindi, a maggior ragione, una loro elaborazione

NEUROVISIONI

A partire dalla seconda metà del Novecento prende consistenza uno sviluppo delle “neuroscienze(altrimenti definite “neurobiologia”, raggruppano numerose specializzazioni scientifiche quali: fisiologia, biologia molecolare, biologia cellulare, biologia evoluzionistica, biochimica, anatomia, genetica, chimica, accompagnate anche da studi di carattere psicologico e linguistico) tale da segnare una nuova e profonda svolta nel “viaggio onirico”. Si tratta di una sfida, tuttora in corso che, utilizzando questi vari contributi, si propone di definire (ovviamente in aggiunta a molteplici altre finalità) una “teoria generale e definitiva” del fenomeno mentale chiamato sogno in grado di rispondere adeguatamente alla domanda “perché si sogna’”. Questa sfida si gioca sul tentativo di coniugare i fenomeni mentali con il loro substrato biologico e fisiologico, entrando però, perlomeno per certi versi, in contrasto con l’interpretazione psicanalitica. Un quadro di Paul Delvaux (1897-1994, pittore surrealista belga) lo testimonia benissimo

(“Ecole des savants – la scuola dei sapienti” sullo sfondo di un muto paesaggio onirico i neurofisiologi sulla sinistra ed i psicanalisti sulla destra sono distanti, separati, non si parlano)

Questa distanza risale fin dai primordi della ricerca neurobiologica, allorquando, negli anni Settanta, uno dei suoi padri fondatori John Allan Hobson (1933-2021, psichiatra statunitense)

contesta apertamente l’idea di sogno freudiana sostenendo (sulla base di prolungati studi della fase REM del sonno) che il sogno nasce quando, casualmente, impulsi neuronali raggiungono la corteccia cerebrale che, per metterli in ordine, genera immagini senza significato. E’ quella che viene definito “il modello neurochimico con modalità on-off dei sogni”. Per Hobson l’aspetto visivo del sogno, le sue immagini, è del tutto casuale: se il suo contenuto sembra possedere un significato è solo perché è un prodotto collaterale del lavorio della corteccia cerebrale per riordinare impulsi neuronali casualmente ricevuti. Le irruenti argomentazioni di Hobson accentuano, ovviamente, il dibattito attorno alle origini dei sogni e trovano da subito rilevanti critiche. Se nel campo psicanalitico si obietta che la casualità neurochimica del lavoro onirico è inconciliabile con l’accertata esistenza di “sogni ricorrenti”, anche nello stesso ambito delle neuroscienze maturano fondate perplessità. Lo straordinario sviluppo delle tecniche di “brain imaging(tecniche che, utilizzando specifici sensori collegati a computer, consentono di rilevare quali aree celebrali si attivano in relazione a specifiche attività) consente, già pochi anni dopo, di notare che l’attività onirica non è presente solo nella fase REM, ma attraversa l’intero periodo del sonno. Allo stesso modo altri studi rilevano che l’area cerebrale denominata “talamo” (nome greco che significa camera interna, camera da letto, il talamo cerebrale sta nel centro del cervello) svolge una funzione fondamentale nel ciclo del sonno/sogno: quella di essere una sorta di “porta della coscienza”. Il talamo riceve infatti in transito tutti segnali che provengono dagli organi di senso (occhi, orecchie, cellule gustative del palato, recettori tattili della pelle) e in fase di veglia li lascia passare per raggiungere i centri superiori del cervello, ma in fase di sonno li rallenta, fino a bloccarli in quella REM. Nel passaggio dalla veglia al sonno talamo e corteccia si “sintonizzano e disattivano l’intero cervello”, ma questa sintonizzazione non coincide temporalmente: se il talamo già blocca i segnali la corteccia (e altre parti del cervello) rimane ancora in attività per alcuni minuti: ciò significa che “aree dormìenti” e “aree sveglie” possono coesistere. Sono solo alcune delle stupefacenti scoperte che le neuroscienze hanno progressivamente accumulato in questi ultimi decenni (quelle qui citate da Lingiardi, essendo strettamente connesse al sogno, hanno solo valore di esempio), la loro evoluzione è in costante corso (a fronte del fatto che il cervello è a tutti gli effetti la struttura biologica più complessa in assoluto), ma ha già fissato due fondamentali punti fermi: il cervello ha una struttura molto articolata nella quale ogni sua area è preposta alla gestione di una o più funzioni, ed inoltre che fra tutte le aree esiste una costante inter-relazione (l’aspetto più difficile da codificare) che presiede alla elaborazione di ”risposte” ai segnali che provengono dai sensi piuttosto che da emozioni, sentimenti e stati d’animo (Lingiardi, sempre a titolo esemplificativo, cita la scoperta del “Default Mode Network”, un’ampia rete neurale che sincronizza la sua attività per la gestione delle attività di introspezione, dei ricordi e dei pensieri rivolti al futuro ed è quindi indipendente dagli stimoli esterni in corso, ma “riflette” su quelli passati e su quelli futuri. Questo DMN, non a caso, è perfettamente funzionante anche durante il sonno). L’attività onirica, secondo le neuroscienze, va collocata, come ogni altro aspetto della nostra biologia, in questo quadro, dal quale emerge la sua costante presenza, seppure modulata in forme differenti, sia nelle fasi di sonno che in quelle di veglia, quasi fosse una sorta di “vita parallela(si spiegano così quelli che chiamiamo “sogni ad occhi aperti”, quelli che mettono insieme in modo inspiegabile ricordi a breve con altri che risalgono a molto prima, quelli che in forma di “incubo” metabolizzano traumi o situazioni di stress, ma anche quelli che sempre in forma di incubo vivono i bimbi fin dalla primissima infanzia).

LA VITA E’ SOGNO?

Lingiardi ritiene comunque opportuno, per meglio comprendere il senso ultimo del sogno, non “gemellare con troppa disinvoltura veglia e sonno”, soprattutto in relazione all’importante rapporto “sogno-coscienza”. In ambito psicanalitico sembra infatti possibile parlare di due forme di coscienza: quella “di veglia” e quella “di sogno”. E forse persino una terza che si manifesta nelle fasi di passaggio da uno stato all’altro. Se è vero che nel sonno/sogno la coscienza (di sé, degli altri, della realtà intera) sembra affievolirsi, come se non si fosse più “padroni della ragione”, non si può però confondere (come le stesse neuroscienze dimostrano) la mancanza di connessione sensoriale con il contesto con un vuoto di coscienza: anche il sogno ha “le sue ragioni”. Attorno al rapporto sogno-coscienza il dibattito, anche alla luce degli apporti neuro-scientifici, è quanto mai acceso, ed ancora una volta Hodson ha fatto sentire la sua, per quanto discutibile nei suoi esiti, creatività scientifica. A suo avviso la fase REM del sonno (suo autentico cavallo di battaglia) è una sorta di “proto-coscienza”, uno stato primordiale dell’organizzazione cerebrale presente fin dall’infanzia come eredità evoluzionistica. Nelle fasi di veglia interviene una forma di coscienza organica (comprende linguaggio, pensiero astratto, e tutte le funzioni di consapevolezza del mondo esterno e del sé), ma nelle fasi di sonno REM si riaffaccia la proto-coscienza primordiale ed i sogni che avvengono in questa fase (in forme spesso bizzarre) sono quelli essenziali per il riordino e la gestione del flussi dei segnali pervenuti dall’esterno consentendo così il miglior funzionamento possibile della coscienza “normale”. Ipotesi quantomeno affascinante (peraltro avanzata, su ben altre basi, da Nietzsche nel suo aforisma “Logica del sonno” …. nel sogno continua ad agire questa antichissima parte di umanità, la base sulla quale si sviluppò, e ancora si sviluppa, in ogni uomo la superiore ragione….) anche se, al momento, indimostrabile. Lingiardi chiude, con noi, questo suo viaggio onirico, con una frase di un suo paziente che, del tutto all’oscuro delle idee di sogno fin qui esplorate, così lo salutò al termine del percorso di analisi: non avrei mai detto che i sogni servono a qualcosa, e sa, secondo me a cosa servono? A stare meglio quando siamo svegli.







giovedì 1 giugno 2023

La Parola del mese - Giugno 2023

 

La parola del mese

Una parola in grado di offrirci

nuovi spunti di riflessione

GIUGNO 2023

E’ una delle più importanti tematiche del nostro presente, e delle sfide del nostro futuro. Le opinioni al suo riguardo si dividono fra entusiastici sostenitori e preoccupati scettici. In mezzo sta la stragrande maggioranza dei cittadini che, stimolati in modo contradditorio e confuso dalle sue continue novità, ondeggia fra questi due atteggiamenti. Pesa non poco, proprio per la sua oggettiva complessità, la diffusa insufficiente conoscenza (a partire da chi scrive!) dei termini tecnici della questione. Questo nostro contributo mira a colmare almeno in parte questa lacuna, e quindi a meglio comprendere l’evoluzione del dibattito, e quindi abbiamo deciso di sceglierla come “Parola del mese” di questo Giugno 2023

I.A. Intelligenza Artificiale

A.I (Artificial Intelligence) nella versione inglese

Per farlo ci siamo valsi di un libro di recentissima pubblicazione che, con coinvolgente tono divulgativo, si pone proprio questa finalità

la cui autrice è Francesca Rossi

che possiede una straordinaria competenza in merito [1962, laureata in Informatica, a lungo Professoressa di informatica presso l’Università di Padova, nel 2020 è stata la General Chair (coordinatrice generale) del convegno AAAI (Associazione per l’Avanzamento della Artificiale Intelligenza), attualmente responsabile del gruppo di ricerca IBM per l’etica dell’intelligenza artificiale] Dal suo testo estrapoliamo la sua personale versione della usuale definizione di partenza della nostra Parola

L’Intelligenza artificiale è una disciplina scientifica che mira a definire e sviluppare programmi o macchine (software, hardware) che mostrano un comportamento che verrebbe definito intelligente se fosse esibito da un essere umano

Il ruolo della componente hardware (il supporto fisico: il computer, la “macchina” che può avere le inquietanti forme di robot umanoidi, i circuiti elettronici, eventuali estensioni meccaniche) è importantissimo, ma il cuore dell’I.A. consiste nel software, nei programmi che svolgono le attività previste e desiderate. Il software in effetti altro non è che ….. un programma scritto in un linguaggio di programmazione che dice ad un computer quali azioni deve compiere per risolvere un problema …… E qui sono sorte fin dagli inizi dell’informatica alcune complicazioni: i linguaggi di programmazione (ne esistono diversi) non possono tradurre letteralmente, replicare, il “normale” linguaggio fra umani perché esso presenta alcune “ambiguità” che rischiano di compromettere la “precisione” della comunicazione. Esistono ambiguità “lessicali(se estrapolate dal contesto molte parole possono significare cose del tutto diverse), “sintattiche(ad es: a chi riferire un aggettivo possessivo se la frase contiene più suoi possibili destinatari’), “linguaggio metaforico(una metafora va interpretata in senso letterale?). Per aggirare l’ostacolo i linguaggi di programmazione si sono quindi affidati a specifiche sintassi e regole linguistiche (prevalentemente di valenza matematica) privi di ambiguità, essendo unidirezionali. La sequenza di istruzioni, basata su queste modalità di linguaggio, è condensata nel termine “algoritmo(in generale designa qualunque schema o procedimento di calcolo sistematico, è una parola che deriva dal soprannome “al-khuwarizmi” del matematico arabo Muhammad ign Musa vissuto nel 9° secolo) ed è finalizzata a risolvere un problema, ad ottenere un risultato voluto, definito “output”, immettendo nel computer/macchina, i dati necessari per tale scopo, definiti “input”. Immaginando quindi di aver realizzato un computer dotato di una buona combinazione hardware/software e contenente adeguate “istruzioni/algoritmi”, quando e come esso potrebbe essere definito “intelligente”? Non aiuta certo a rispondere la definizione di intelligenza del suo quanto mai vaga e declinabile in molti differenti modi. Lo è se riferita all’uomo e ad altre forme viventi (ultimamente è stata estesa anche alle piante), a maggior ragione questa vaghezza vale se applicata ad una fredda macchina, fatta di circuiti e di impalpabili istruzioni.  Impossibile quindi per lo scopo di questa divulgazione entrare nel merito di una discussione che, per quanto alla lunga inaggirabile per classificare l’I.A., si apre in troppe direzioni, Francesca Rossi si limita quindi a recuperare la distinzione fra due categorie di attività mentali umane: il pensiero veloce ed il pensiero lento. In primo interviene, pressochè in modo automatico, quando si devono prendere decisioni immediate, basate su intuizioni, emozioni, reazioni istintive. Il secondo invece è quello che si attiva per gestire situazioni e comportamenti che richiedono valutazioni più complesse, meno istintive, basate su una molteplicità di fattori. E’ opinione diffusa quella di associare l’intelligenza umana soprattutto al pensiero lento, anche se le neuroscienze hanno da tempo dimostrato che in realtà è sempre e comunque il pensiero veloce che interviene per primo proprio per fornire a quello lento le basi sulle quali svolgere il suo lavoro. Vale a dire che fra le due forme di pensiero non è corretto fissare delle distinzioni troppo rigide, e non a caso l’uomo è tutt’altro che un essere vivente perfettamente logico e razionale! Questa distinzione tra forme di pensiero vale anche per la I.A.? Secondo Francesca Rossi si può rispondere di sì, se interpretiamo come “pensiero lento” le tecniche della I.A. preposte alla risoluzione di problemi che richiedono la gestione/valutazione precisa e analitica dei dati che li riguardano, e viceversa se chiamiamo “pensiero veloce” quelle che devono intervenire per affrontare problemi più indeterminati, più vaghi, più “astratti”. Questa sostanziale convergenza di forme di pensiero è criterio sufficiente per definire “intelligente” un computer/macchina? A quanto pare non del tutto se, come per l’intelligenza umana, anche questa domanda non sembra avere risposte certe e condivise (la stessa I.A, l’affronterebbe con un “pensiero lento”), non a caso gli stessi ricercatori e sviluppatori della I.A. sono molto divisi al riguardo. Da una parte troviamo i seguaci del matematico inglese Alan Turing (1912-1954, considerato uno dei padri dell'informatica) convinti che esista una intelligenza artificiale (è famoso il “test di Turing”: una persona dialoga, senza vederli, con un’altra persona ed un computer, se chiamata a individuare chi fra questi due sta rispondendo alle sue domande non riesce a distinguerle, allora si può definire intelligente anche il computer), molti altri invece, considerando la complessità di comportamenti definibili intelligenza, mantengono molti dubbi al riguardo. Per aggirare il problema di una disputa teorica che appare, per ora, senza soluzione nell’ambito delle ricerche attorno alla I.A. da tempo si è preferito ripiegare sul concetto di “razionalità[il testo più usato per l’insegnamento della I.A. “Artificial Intelligence: a modern approach (un approccio moderno)” si basa proprio su questo concetto], intendendo con esso: la capacità di un sistema di capire quali sono le decisioni migliori per arrivare alla soluzione di un problema o al raggiungimento di un obiettivo prefissato.  L’uso del concetto di razionalità si è in effetti dimostrato fondamentale per indirizzare l’intero sviluppo della I.A., che in generale ha sin qui seguito due distinti percorsi: uno che ha puntato alla realizzazione di una I.A. debole, focalizzata”, ed un altro che invece si è posto l’obiettivo di una I.A. forte, generale”. Si tratta di una fondamentale differenza di impostazione di base, con la prima, quella “debole/focalizzata”, che dato un problema specifico mira alla sua soluzione utilizzando “apposite tecniche(le istruzioni date alla macchina) quali la logica/ottimizzazione (la soluzione migliore individuata sulla base di criteri predefiniti, ma anche solo sulla base di probabilità) la pianificazione (la sequenza di possibili azioni), la schedulazione/apprendimento (soluzione di un problema a partire da esempi di soluzioni analoghe), e la seconda, quella “forte/generale", che, ben più ambiziosa, punta ad una più ampia capacità di effettuare attività con la stessa flessibilità e adattabilità umane. La prima, ad avanzato stadio di realizzazione, ha ormai vasti campi di utilizzo, la seconda è per ora limitata alla sperimentazione su giochi online (osserva gli schemi di gioco per arrivare a capire come arrivare al risultato senza più bisogno di “apposite tecniche” fornite dall’uomo). In generale però, con quest’ultima eccezione, finora l’I.A. si è  concretamente tradotta in un modo per aumentare, coadiuvandola in diverse attività, l’intelligenza umana, e quindi si parla di “augmented intelligence, intelligenza aumentata” piuttosto che di “extended intelligence, intelligenza estesa”, ossia  di computer/macchine capaci di amplificare, ottimizzare, le capacità umane grazie ad una stretta relazione uomo/macchina (ad es. in medicina per individuare le diagnosi,  terapie migliori, per collaborare ad interventi chirurgici . Uno studio americano del 2016 ha evidenziato che, nel caso di diagnosi di tumori al seno, i medici da soli avevano un margine di errore di 3,5 volte su 100, i migliori sistemi di I.A. da soli 7,5 volte su 100, medici e I.A. insieme scendevano a 0,5 volte su 100). L’ancora breve storia della I.A. (termine coniato per la prima volta nel 1956) si è quindi sviluppata lungo queste due direttive di fondo con un andamento alterno fatto di incoraggianti successi, ma anche di delusioni, e che nella sua versione “extended” è stata in buona misura inizialmente testata soprattutto nel campo dei giochi da tastiera (perché ambienti di prova limitati e circoscritti, con regole chiare, ed con il solo scopo di vincere). Due test in particolare aiutano a capire l’evoluzione avvenuta nel perfezionamento delle “informazioni/algoritmi”:

*    1997 = il programma Deep Blue vince una partita a scacchi contro il campione mondiale Garry Gasparov (la grande potenza di calcolo di Deep Blue consentiva di calcolare le possibili mosse molto meglio e molto prima, in una sorta di rivincita successiva Kasparov vinse attuando mosse fantasiose fuori dagli schemi)

*   2016 = il programma AlphaGo, dell’azienda Deep Mind, batte il campione mondiale di Go, un gioco da tastiera persino più complesso degli scacchi (in questo gioco è impossibile giocare e vincere solo immaginando le mosse dell’avversario, occorre adottare mosse originali, AlphaGo ci riesce mescolando vari algoritmi di I.A. di diverso tipo). Nel 2017 un nuovo programma, AlphaGo Zero, batte AlphaGo in tutti i giochi da tastiera

In parallelo sono stati affrontate, con crescente perfezionamento, anche attività che non consentono di essere gestite scrivendo adeguati algoritmi, in questo caso lo sviluppo della I.A. si è mosso con un diverso approccio: dotare il computer/macchina di un archivio, il più ampio possibile di “esempi” utili, perché similari, per ottenere il risultato voluto. Un caso esemplare è la capacità di riconoscere oggetti/persone in una sequenza di immagini, per un computer infatti una foto è solo una sequenza di pixel (da picture element, elementi di immagine), se lo si dota di un adeguato numero di esempi di riferimento il computer riesce a farlo con un buon margine di successo. Allo stesso modo si è riusciti a superare alcune delle difficolta di “dialogo” uomo/macchina: come fa ad es. Alexa a capire, a tradurre in parole, i comandi vocali (inizialmente semplici suoni) che riceve? Lo fa, con un margine di errore ormai molto basso (attorno al 5%) proprio perché è dotata di un gran numero di esempi che associano quel suono ad uno specifico comando. E non è diversa la spiegazione della straordinaria velocità con la quale i motori di ricerca in Internet rispondono alle richieste d’informazione immesse ancora prima che queste siano completate: questi risultati sono già stati calcolati, e indicizzati (a mo' di esempi), nella impressionante rete di computer, di altissima potenzialità, che gestiscono la Rete (solo Google nel 2016 disponeva di 2 milioni e mezzo di computer). Ed è qui però che emerge una problematica scottante: la massa dei dati che servono a questi computer per calcolare/indicizzare viene fornita dagli stessi utenti! (nel web si muovono circa 4 miliardi di persone, e la quasi totalità è attiva sui “social”) i quali da una parte usano l’I.A. per avere  le associazioni più probabili a quanto immesso nel motore di ricerca, ma dall’altra sono  proprio le loro richieste a creare gli “esempi” necessari alla I.A. per fare questo lavoro. Con in più il fatto, tutt’altro che trascurabile, che questa forma di I.A. è bravissima, sempre usando quanto viene immesso nei motori di ricerca, nel leggere, nel capire e nel classificare gusti e preferenze di ogni singolo utente indirizzando così, altrettanto immediatamente, gli immancabili “suggerimenti pubblicitari”. Restando nel campo di questa forma di applicazione della I.A. le stesse segnalazioni che riceviamo da banche ed istituti di credito per avvisarci di transazioni sospette sono operazioni generate da programmi che si attivano sulla base di dati storici (esempi) e di collegati calcoli di probabilità. Se è quindi dato consolidato la straordinaria capacità della I.A. nella gestione della impressionante massa dei dati immateriali circolante nella Rete (con le tecniche del “data mining, estrazione di dati”) molto più lento appare al momento il suo perfezionamento nella sfera dei “movimenti” fisici, della fisicità motoria che noi umani consideriamo naturale, istintiva, “facile”. In effetti questa nostra istintiva fisicità è il risultato, inconsapevole, di un consistente numero di “operazioni tutt’altro che semplici per essere tradotte in “istruzioni” (ad es. la semplice operazione di aprire una porta implica una notevole catena di passaggi per l’I.A.: individuare la maniglia, capire la sua forma, valutare la giusta forza da usare per girarla, decidere la giusta direzione per l’apertura. Una serie di azioni che richiedono la combinazione di molteplici e differenti istruzioni). Per meglio comprendere le potenzialità, ed i rischi, che derivano da questo progresso tecnologico, con i suoi molteplici successi (molti dei quali sono ormai vissuti come naturali) e le tante difficoltà che devono ancora essere superate è necessario ritornare alla tecniche più usate nel campo della I.A. Per aiutarci a meglio capirle Francesca Rossi parte da alcune operazioni che possiamo definire “ordinarie”, ma che tali non sono per l’I.A.: come ad esempio quella di un traduttore automatico (una applicazione che ha avuto uno straordinario miglioramento, ma che è ancora lontana dall’essere perfetta). Quali sono le giuste istruzioni da dare al computer per operare? Come si è visto in precedenza si possono seguire due strade: dare al computer tutti gli “input” per analizzare la frase da tradurre oppure dotarlo di tantissimi “esempi” di parole e frasi già tradotte (sono due diverse modalità volendo assimilabili al “pensiero lento”, la prima possibilità, e al “pensiero veloce”, la seconda). Nel primo caso, come in tanti altri analoghi, “l’istruzione” da dare al computer consiste in quello che in gergo viene chiamato “algoritmo procedurale(ossia l’insieme dei passaggi da seguire: individuare le parole, raggrupparle in frasi secondo le regole grammaticali, tradurle in frasi di forma compiuta) che, in questo caso, deve superare tutte le complicazioni intrinseche al linguaggio scritto (sono quelle di ordine lessicale, sintattico, metaforico già evidenziate in precedenza). La questione appare quindi parecchio complessa. Nel secondo caso invece ci si limita a fornire al computer un adeguato numero di  “esempi” iniziali per metterlo in grado, grazie alla tecnica di “machine learning – apprendimento automatico”, di fornire traduzioni sempre più adeguate grazie al fatto che ogni nuovo passaggio viene utilizzato dal computer per “arricchire gli esempi”  da utilizzare (il computer viene proprio “allenato” ad operare così con una tecnica chiamata “super-vised learning – apprendimento supervisionato”, le ultime versioni di questa tecnica prendono ispirazione dalla rete di neuroni del cervello replicandola in quella che viene definita “neural net – rete neurale”). La migliore efficacia della seconda tecnica, resa possibile anche dallo straordinario miglioramento/potenziamento/velocizzazione dell’ hardware”, l’ha ormai resa quella prevalente (collegata alla tecnica del “super-vised learning” è stata messa a punto una tecnica persino più raffinata: il “reinforcement learning – apprendimento con rinforzo” usata per massimizzare la risposta del singolo utente ad esempio in operazioni di “suggerimento automatico” per ricerche, e acquisti, in Rete. Con questa tecnica è proprio il “click” dell’utente a confermare che la soluzione proposta è quella cercata, passaggio che il computer memorizza come “esempio di successo” per successive operazioni). Va però tenuto conto che la disponibilità di dati in Rete, utilizzabili come esempi per “allenare” i computer con il “machine learning”, è patrimonio molto recente e non sempre ottimale per scopi particolari [ad esempio fino a pochi decenni fa erano molto limitati gli archivi di immagini fotografiche e quelli di testi scritti (Internet nasce nel 1982 ed ancora nel 1984 erano mille i computer collegati in Rete in tutto il mondo). Solo con l’esplosione della Rete avvenuta a cavallo del secolo (Facebook nasce nel 2004, vent’anni dopo ha due miliardi di utenti attivi al mese) è stato possibile disporre di archivi sufficientemente adatti a coprire tutte le necessità.]. E’ però indubbio che la svolta consentita dal machine learning, una volta ottimizzato grazie ad adeguati archivi di esempi, è davvero significativa, si è infatti ormai passati ad una I.A. in grado di risolvere con crescente precisione anche quei problemi per i quali …… non si conosce la risposta …. che quindi non consentivano ai programmatori di immettere tutte le istruzioni necessarie per utilizzare la tecnica degli “algoritmi procedurali”. (i quali mantengono comunque una loro preziosa e diffusa validità se applicati alla gestione di problemi costituiti da dati certi per quanto complessi (l’Input), ad es. li utilizza tuttora la navigazione satellitare GPS). Vale a dire che è sorprendente la capacità del machine learning di fare crescente tesoro degli esempi per “avventurarsi” su percorsi ancora inesplorati (per certi versi consiste proprio in questa “adattabilità” una delle maggiori motivazioni per affermare l’intelligenza della I.A.) Esiste però una  differenza, che ha una fondamentale valenza in termini di “affidabilità”, fra “algoritmi procedurali” e “machine learning”: i primi tendenzialmente forniscono sempre risposte corrette (l’ouput) (eventuali errori sono imputabili ad una errata programmazione da parte degli estensori degli algoritmi di istruzione), mentre il secondo è “per definizione” soggetto ad errori. Non a caso quindi nel primo caso il criterio base è quello della “correttezza”, mentre nel secondo non si può, per il momento, andare oltre quello della “accuratezza(gli standard migliori finora raggiunti indicano ancora un margine di errore del 5%). In questa carrellata di dispositivi dotati di I.A. rientrano ovviamente i “robot(dispositivi hardware dotati di specifici software che consentono movimenti funzionali nel mondo fisico) per i quali sono però indispensabili anche altre specifiche tecniche che congiuntamente formano la “robotica(una disciplina scientifica a cavallo tra ingegneria meccanica, informatica e fisica). I robot sono da parecchio tempo presenti in lavorazioni industriali di tipo ripetitivo e canonico (le classiche catene di montaggio, ma anche i magazzini super-automatizzati di Amazon, piuttosto che in campo medico e chirurgico), ma l’incontro della robotica con l’ I.A. ha consentito una loro stupefacente evoluzione nell’ambito privato (ad es. sono robot Alexa della Amazon,  il cagnolino da compagnia della Sony), ma la loro maggior parte per il momento ancora si muove, come prototipo, nei laboratori di ricerca (è bene non farsi ingannare dalle anticipazioni pubblicitarie!), per un percorso che richiederà molto altro lavoro, molte risorse …… e molta fortuna! In questo quadro di straordinari progressi non mancano tuttavia problemi, difficoltà, limiti che al momento appaiono ancora invalicabili a partire dai margini di errore, già evidenziati, per il machine learning. Non si tratta solo di accettabili difetti “di gioventù”, spesso questo genere di errori può assumere caratteri di totale imprevedibilità, con risposte molto lontane da quelle che ci si aspetta usando gli abituali criteri umani (sono anedottiche alcune letture di immagini da parte della I.A., così come alcune risposte di ChatGPT, una applicazione di dialogo fra umano e artificiale). In alcuni casi, come quello della guida automatica o della diagnostica medica, eventuali errori (in questi casi si tratta di quelli definiti  “falsi positivi” e “falsi negativi”) possono anche avere pesanti conseguenze. In particolare a tutt’oggi l’I.A. su base machine learning  non riesce ancora a ragionare o a ricavare informazioni su concetti generali utilizzando gli esempi (input) su cui attiva le sue risposte/soluzioni (ouput) per compiere astrazioni ed estensioni (è stato messo a punto un test, chiamato “schema di Winograd” dal nome del suo inventore, che misura questa specifica competenza ponendo alla macchina domande come “la scatola non entra nella valigia perché è troppo grande”. Ebbene al momento l’I.A. non sa collegare quel “troppo grande” alla scatola, risposta per noi banale, piuttosto che alla valigia. In casi come questo i margini di errore sono del 50%). Un’altra complicazione, fondamentale per valutare, su basi fisiche, l’I.A, deriva dal suo bisogno di hardware molto potenti che, per quanto basati sulle reti neurali, comunque non reggono il confronto con il cervello umano. Questo (che, con il suo miliardo di neurosi ognuno dei quali è connesso ad altri neuroni da circa mille sinapsi, pesa solo un chilo e mezzo e necessita di soli 20 Watt di potenza per funzionare) riesce ad effettuare un exaflops (1 seguito da 18 zeri) di operazioni al secondo, ed è quindi più “performante”, dei più potenti super-computer, che per funzionare hanno bisogno di 15 Megawatt (un milione di watt) e non vanno oltre a 93 petaflops (un petaflops corrisponde a 1 seguito da 15 zeri).

-------------------------------------------------------

Queste informazioni “tecniche” raccolte da Francesca Rossi nel suo saggio non sono certo in grado, da sole, di rispondere alla domanda se l’I.A. ha titoli per essere definita vera “intelligenza”. Concorrono all’uopo molte altre considerazioni di vario genere: filosofiche, etiche, di evoluzione antropologica, neurologiche (legate soprattutto al ruolo dei sentimenti e delle emozioni). Certo è che, per quanto approssimativa, una sua migliore conoscenza “dal di dentro” può aiutare a meglio calibrare l’interrelazione con questi giudizi di altra natura. Al tempo stesso sono elementi utili per meglio valutare le tante problematiche legate alla crescente presenza della I.A. nelle nostre vite. Da questo saggio abbiamo quindi sintetizzato le considerazioni di Francesca Rossi a questo riguardo.

-------------------------------------------------------

L’enfasi, e la superficialità, mediatica che accompagnano le legittime domande sul ruolo della I.A. poco aiutano a meglio comprendere i termini reali di molte delle questioni che generano gli entusiasmi piuttosto che le preoccupazioni e l’apprensione citate all’inizio. Ambedue questi atteggiamenti non sembrano essere sempre ben calibrati rispetto ai due scenari di base in cui è corretto collocarli: gli usi attuali della I.A. e quelli ipotizzabili nel futuro. Francesca Rossi fornisce al riguardo alcune sue opinioni “professionali”:

Ø è purtroppo vero che in alcune applicazioni della I.A. si manifestano pregiudizi (bias in inglese) sociali (i sistemi di valutazione del grado di propensione al crimine, usati ad es. negli USA, sono molto più severi verso certi gruppi sociali),  di genere (i traduttori automatici non sempre rispettano la giusta appartenenza di genere), etnici (i sistemi di riconoscimento facciale non funzionano al meglio per le persone di colore e di etnie particolari). Il problema però nasce a monte, negli “esempi” immessi nel machine learning per “far imparare” la macchina, se questi dati sono più calibrati su alcune fasce della popolazione l’I.A. si comporterà di conseguenza. I bias non sono una scelta “autonoma” della I.A., ma derivano dallo sbilanciamento dei dati che le vengono forniti. La soluzione potrà quindi derivare da un maggiore equilibrio e rispetto delle diversità da parte dei progettisti

Ø questa soluzione vale anche per superare i dilemmi di carattere “etico” che si manifestano, con rilevante frequenza, nelle concrete attività della I.A. Tutti gli ordini impartiti e tutte le finalità richieste alla macchina vengono da questa eseguite sulla base delle istruzioni che ha ricevuto, se queste non contengono tutte le necessarie indicazioni di ordine valoriale, ovvero si basano su esempi scorretti, è possibile che la I.A., asetticamente finalizzata agli obiettivi, adotti, pur di addivenire al risultato, comportamenti “discutibili”. In questo caso però, a differenze dei precedenti bias (in gran misura spiegabili per una insufficiente calibrazione “statistica” delle istruzioni in fase di programmazione) il ruolo dei programmatori è molto più complesso perché richiede loro di operare scelte valoriali che quasi mai hanno valenza oggettiva. Quali valori sono assunti a riferimento e in quale ordine di priorità sono inseriti? Chi e come lo decide? Sulla base di quali scelte collettivamente decise? Il dibattito al riguardo non sembra essere sin qui adeguato alla rilevanza del problema, e la velocità di progresso della I.A. impone che quanto prima tale gap debba essere colmato.

Ø In alcuni casi, molto meno complessi, ciò è già avvenuto. Nella U.E. dal 2018 è in vigore una legge (la GDPR, General Data Protection Regulation) che dà diritto ad un utente di avere spiegazioni su una decisione presa da un algoritmo I.A. (ad es. per un mutuo non concesso o per un servizio sociale non riconosciuto)

Ø Ma ad oggi non è semplice fornire tali spiegazioni soprattutto per macchine che hanno utilizzato il machine learning. Se, come si è visto, per applicazioni di I.A. basate su algoritmi procedurali la risposta chiama in causa gli input utilizzati ed è quindi possibile entrare nel merito dei parametri e dei criteri che li hanno determinati, per il machine learning, apprendimento automatico basato su esempi, la questione diventa complessa, perché, per certi versi, entra in gioco una qualche “soggettività” della macchina. Lavorando e decidendo solo sulla base di “esempi” non esiste spazio per una verificabile  “oggettività” della I.A., che se chiamata a “spiegare” le ragioni della sua scelta non saprebbe rispondere per il semplice fatto che le sue procedure non lo prevedono

Ø Il problema degli “esempi” che allenano il machine learning chiama in causa la gestione dei dati utilizzati per allenare le reti neurali delle macchine. Si parla di “dati” spesso “personali” che sono forniti, senza adeguata consapevolezza, dagli utenti della Rete tramite i suoi programmi e social. Entra quindi in gioco la più ampia, ed impattante, questione dei cosiddetti “big data”, della loro alimentazione, della loro gestione, delle necessarie modalità di controllo di tali flussi. Anche in questo caso la legge europea (ma non è così ovunque nel mondo) GDPR contiene alcune regole a tutela degli utenti della Rete, la più importante delle quali stabilisce che i dati personali sono di totale proprietà del soggetto e che non possono essere utilizzati salvo specifico “acconsento”. La questione quindi ha una valenza più ampia che riguarda le logiche di profitto dei “padroni della Rete

Ø Allo stesso modo anche il problema della possibile scomparsa di posti di lavoro a causa dell’utilizzo spinto della I.A. chiama in causa diverse componenti. E’ indubbio che le sue potenziali applicazioni accentueranno il già significativo l’impatto della robotica sul mercato del lavoro, ma esistono posizioni differenti sulle possibili conseguenze. Alcuni economisti sostengono che non si potrà evitare una generale contrazione dei posti di lavoro (negli ultimi anni, pur in presenza di importanti turbolenze economiche, il PIL globale è cresciuto mentre la forza lavoro impiegata è diminuita), altri invece pensano che la possibile perdita di alcune professioni sarà compensata dalla nascita di altre (al momento non esistono esperienze verificate di lungo periodo su cui calibrare l’analisi). Certo è che, al di là degli aspetti quantitativi, l’I.A. avrà un grande impatto sulla qualità del lavoro, tutti i lavori, le procedure produttive i servizi, saranno profondamente trasformati. E questo cambiamento radicale si sta già realizzando in tempi brevissimi (a differenza delle precedenti rivoluzioni agricola e industriale) tali da rendere ancora più complesso il governo di tale processo

Ø Sembrano altrettanto prossimi scenari in cui le guerre, e le armi che vengono usate per farle, saranno in gran misura affidate a macchine e programmi di I.A. (i droni da combattimento sono solo il primo, e ancora artigianale, esempio). E’ da brividi immaginare che in prossimo futuro il machine learning bellico (quali “esempi” verranno utilizzati?) decida le modalità dei conflitti armati. E’ una questione delicatissima, ed il dibattito politico e istituzionale al riguardo non sembra finora per nulla adeguato

Ø Difficile infine, con riferimento a queste problematiche e alle tante che si potranno aggiungere, valutare il salto di qualità che potrebbe venire da uno sviluppo esasperato della I.A. fino alla realizzazione di quella che viene definita “super Intelligenza Artificiale”. Il dibattito al riguardo non sembra basato su adeguate valutazioni. Nessuno ad oggi è  infatti in grado di delineare il comportamento di macchine I.A. in grado di gestire (in modo del tutto autonomo?), saperi, competenze, intelligenze, e conseguenti decisioni. Ma, fatta la tara agli eccessi polemici, la questione esiste.

Nell’ultima parte del suo saggio Francesca Rossi, proprio in relazione a questi (ed altri potrebbero essere aggiunti) decisivi interrogativi, ripercorre l’evoluzione della consapevolezza e del conseguente dibattito che da alcuni avviene nell’ambito del mondo scientifico (la sua specializzazione professionale verte, con posizioni di assoluto rilievo a livello mondiale proprio su questo). E’ innegabile, a suo avviso, che per tutta una lunga prima fase, durata almeno trent’anni fino al 2014 (anno del primo convegno interdisciplinare sul futuro della I.A.) l’attenzione degli addetti ai lavori sia stata esclusivamente rivolta allo sviluppo dei sempre più entusiasmanti progetti tecnici. Qualcosa si è poi messa in moto motivata proprio dal fiorire di prospettive tanto innovative quanto di evidente impatto (uno degli ispiratori di questa svolta di riflessione ad ampio raggio è stato Max Tegmark, del quale abbiamo pubblicato come “Saggio del mese” di Giugno 2018 “Vita 3.0. Essere umani nell’era della intelligenza artificiale”), e a Gennaio 2015 si è tenuto a Portorico un convegno (con la presenza, accanto ad esperti di I.A.,  filosofi, economisti, psicologi, e personaggi “visionari” come Elon Musk, e nel quale Francesca Rossi ha già avuto un importante ruolo di coordinamento) che ha segnato una significativa svolta tradotta in una lettera aperta indirizzata al mondo scientifico e ai governi di tutto il mondo (consultabile in Rete: https//futureoflife.org/ai-open-letter). In questa lettera si esprimevano forti sollecitazioni sulla necessità di sottoporre l’I.A. sotto controllo prima del suo possibile sviluppo in “Super Intelligenza Artificiale(questa possibile evoluzione è tecnicamente denominata “singolarità” per indicare il momento in cui le macchine, divenute più “tecnicamente intelligenti” degli uomini, potrebbero decidere che l’umano non è più necessario per gli stessi scopi che sono stati loro assegnati). Al convegno di Portorico ha fatto seguito, nel corso del 2016, un intenso e concreto lavoro (sempre condotto in modo interdisciplinare e con l’attivo coinvolgimento dei giganti del settore come Google, Microsoft, Apple, IBM) che ha portato all’approvazione nel 2017 di una sorta di “Statuto della I.A.” composto da 23 principi di base (anche questo consultabile in Rete: https//futureoflife,org/ai-principles), ormai considerati un punto di riferimento per ogni iniziativa finalizzata a mitigare i possibili effetti negativi della I.A. (fissano criteri per le modalità della ricerca, guardano a valori come privacy, trasparenza, responsabilità, libertà, condivisione globale dei benefici, preoccupazioni per la singolarità e per l’uso della I.A.in campo politico, legislativo, giudiziario) strettamente connesso agli “Obiettivi per lo sviluppo sostenibile” dell’ONU (https//www.un.org/sustainabledevelopment). Si tratta quindi di un confortante quadro di riflessioni che dovrebbero (come si suol dire: il condizionale è sempre d’obbligo) tracciare le linee guida dell’ulteriore sviluppo della I.A. che inizia ad avere riscontri anche sul piano politico. Ed anche in questo caso l’Unione Europea è decisamente all’avanguardia. La stessa legge GDPR, uno dei primi concreti provvedimenti legislativi in materia, è frutto del fattivo lavoro di un gruppo (sempre composto da competenze diverse ad ampio raggio e di cui Francesca Rossi ha fatto parte) nominato dalla Commissione Europea proprio per tradurre, adattandoli allo specifico contesto europeo, tali principi e tali obiettivi. Francesca Rossi chiude con una nota di ottimismo, alla quale tutti noi speriamo di aderire a fronte di concreti riscontri positivi, certo è che, come lei stessa riconosce …… la tecnologia cambia molto velocemente ….. e non pare che società, politica, cultura, opinione pubblica si sappiano muovere alla stessa velocità.