Filosofia e scienza cognitiva

Laterza, 2001
Leave a comment

L’ipotesi nota come Intelligenza Artificiale – che prevede la costruzione di software e macchine intelligenti capaci di interagire con il mondo esterno e facilmente equiparabili, per i loro connotati, all’intelligenza naturale umana – ha trovato, dal lontano seminario di Dartmouth del 1956, una graduale e costante affermazione negli studi; prova ne sia non soltanto il particolare interesse nutrito dalla filosofia e, in senso stretto, dalle scienze nei confronti della cognizione e i meccanismi dell’apprendimento linguistico, ma anche il fatto che (possibilmente) «né l’esperimento mentale di Putnam né tanto meno l’idea chiave del film Matrix di Andy e Larry Wachowski, sarebbero venuti in mente a qualcuno se del nostro mondo intellettuale non facessero parte certe idee riguardanti il rapporto mente/computer» (Diego Marconi, Filosofia e scienza cognitiva, Laterza, Roma – Bari 2001, p. 5).
La letteratura scientifica è ormai ricca di testi e manuali in merito gli studi di A.I., scienza cognitiva e rapporto body/mind, sebbene il testo di Diego Marconi, Filosofia e scienza cognitiva, sia esemplare nell’offrire una vasta gamma di riflessioni sulla questione, in maniera semplice e allo stesso tempo articolata, ricca di spunti critici e di piacevole lettura, caratteristica peculiare di uno studioso del calibro di Marconi. Difatti, si può anche non essere d’accordo con le “presunzioni torinesi”, ma non riconoscere le grandi abilità dell’autore nella sua non comune chiarezza nel discutere temi di vario spessore, sarebbe davvero una cattiva presunzione.
Il titolo del testo traccia perfettamente e compiutamente l’obiettivo che Marconi si propone di raggiungere, ovvero un’esauriente ed esaustiva (ma non troppo) argomentazione sul rapporto, per l’appunto, tra filosofia e scienza cognitiva, declinata, quest’ultima, al singolare e non al plurale (“scienze cognitive”), come troppo spesso si dice, partendo dall’idea essenziale che «più che una disciplina, la scienza cognitiva [sia] un programma di ricerca, che ha orientato e orienta ricerche psicologiche, linguistiche, informatiche» (ivi, p. 18).
La comprensione delle origini è sempre comprensione delle attuali risorse di un problema, per questo è necessario assumere che l’idea delle macchine “pensanti” nasca nella seconda metà del XX secolo, quando si era ancora ben lungi dalla loro realizzazione pratica e gli studi sull’intelligenza naturale erano convergenti nell’indicare due concezioni sul modo di intendere le nostre cognizioni (teoria computazionale della cognizione e teoria del carattere astratto delle computazioni). L’idea della scienza cognitiva (che poi trova il suo fondamento nel funzionalismo del “primo” Putnam) sarebbe quella di considerare la mente e i suoi processi alla stregua di una funzione algoritmica facilmente implementabile da qualsiasi programma e realizzabile da qualunque supporto artificiale.
Se è perfettamente legittimo interrogarsi sul perché i filosofi dovrebbero interessarsi agli sviluppi dell’A.I., è facile rendersi conto di come – se essa costituisce un’impresa (fondamentalmente) tecnologica nella costruzione di programmi e algoritmi “intelligenti” – presuppone comunque cognizione di “cosa sia la comprensione del linguaggio”, “cosa sia la visione”, “cosa sia il ragionamento”. Evidente è quindi che l’A.I. presuppone una profonda conoscenza dell’umano e delle sue strutture e, pertanto, è proprio sull’antropologia che dovrebbe trovare il suo primo e ultimo fondamento. L’esser fedeli all’appello, inciso sul tempio di Apollo a Delfi, «Conosci te stesso», è la via che ogni ingegnere robotico e programmatore dovrebbe seguire (cfr. Alberto Giovanni Biuso, Cyborgsofia, Il pozzo di Giacobbe, Trapani 2004, p. 73), dato che conoscere l’umano significa esser capaci di sviluppo scientifico critico e concreto.
Ma questo è un discorso completamente estraneo alle intenzioni di Marconi e ai suoi cari “scienziati della cognizione” che, ricordiamolo, non ritengono fondamentale lo studio della componente umana ai fini dei processi razionali: la realizzazione multipla del mentale è indipendente dal supporto materiale degli stati di coscienza.
Il problema che sembra apertamente sfidare l’idea di una teoria astratta della cognizione (sulla quale si fonda quindi l’A.I.) è quello del valore semantico dell’esperienza umana, giacché «se i nostri processi cognitivi sono computazioni in cui certe rappresentazioni vengono elaborate secondo regole, come avviene che queste rappresentazioni abbiano proprietà semantiche? Da dove vengono queste proprietà?» (D. Marconi, Filosofia e scienza cogniitiva, cit., p. 62), problema da molti preso in seria considerazione ma che Marconi elegantemente salta, dato che sarebbe come discutere «sul concetto generale di volare fatt[o] prima dell’invenzione degli aeroplani» (ivi, p. 71). Il noto esperimento mentale di Searle non costituirebbe una forte critica al progetto della scienza cognitiva perché, di fatto, non abbiamo ancora le capacità di costruire computer in grado di processare semanticamente le loro informazioni; perché continuare con inutili discussioni?
Nelle ultime parti del testo la discussione verte sul ruolo che la scienza cognitiva ha assunto nel sostenere gli studi sulla comprensione dell’umano (in senso più ampio) e a riprendere i nuclei centrali del dibattito moderno sulla logicità o meno del raziocinio. Le fallacie logiche sarebbero da imputare più a fattori inferenti quali l’incomprensione del problema in sé o delle premesse piuttosto che all’intera competenza logica dei soggetti considerati; del resto sul rapporto scienza/osservazioni «i teorici del theory-ladness non avevano del tutto torto quando sostenevano che ciò che vediamo dipende dalle nostre credenze e aspettative, sbagliavano – probabilmente – se pensavano che ciò implicasse che la percezione visiva è interamente permeabile dai processi cognitivi superiori» (ivi, p. 123). Il crescente interesse verso le problematiche legate alla cognizione e alle strutture biologiche che permettono la realizzazione del linguaggio, sembrano non aver ancora intaccato l’immagine dell’uomo foucaultiano – vedi Le parole e le cose (Feltrinelli, Milano 1966) – dissolto nella molteplicità culturale: l’uomo crea una cultura che determina la natura, la quale sembra quasi diventare un ossimoro: «ciò che è propriamente umano non è naturale» (D. Marconi, Filosofia e scienza cognitiva, cit., p. 128).
Inizialmente parlavamo giustamente di “presunzioni torinesi” intendendo il fatto che l’autore del testo non mette per un solo momento in dubbio le tesi da lui avvallate, anche di fronte a evidenze che minano le radici del progetto sostenuto. Mi sembra quindi opportuno sottolineare che finché l’idea della scienza cognitiva sarà quella di considerare la mente umana e i suoi processi come un algoritmo implementabile su qualsiasi supporto (tanto il formaggio quanto il cervello umano) e il corpo sarà quindi concepito, fondamentalmente in senso dualista, come un semplice attributo in aggiunta alla mente stessa, l’idea dell’Intelligenza Artificiale (forte) resterà del tutto infondata, priva di ogni senso, e allora sì che «come possa accadere che uno stato di coscienza sorga da un’eccitazione del tessuto nervoso» sarà «tanto inspiegabile quanto l’apparire del genio dalla lampada di Aladino» (T. Huxley, in Teoria dell’identità, a cura di Marco Salucci, Le Monnier Università, p. 173).