IA cosciente? Per Faggin è un’illusione (2025)

IA cosciente? Per Faggin è un’illusione (2025)

Posted by MessyMind on September 10, 2025 · 13 mins read Foto: cottonbro

IA Cosciente? Per Faggin è un’Illusione: Cosa Manca Davvero alle Macchine

Aggiornato il 8 settembre 2025 · Lettura: ~7 min

Immaginate di dare a un marziano il manuale d’istruzioni dell’universo. Lui imparerà che la parola “dolore” è statisticamente vicina a “lacrime”, “medico” e “lamentela”. Ma ha la più pallida idea di cosa sia quel dolore lancinante che ti trafigge la schiena dopo una giornata su una sedia scomoda? No. Per Federico Faggin, l’IA è quel marziano: un illusionista iper-specializzato che non ha mai avuto un contatto diretto con la realtà. E non lo avrà mai.

In breve:

  • L’IA manipola simboli (sintassi), non esperienze (semantica).
  • Il significato nasce dall’esperienza cosciente (seità), non dai calcoli.
  • QIP: la coscienza è fondamentale, non emergente dalla materia.
  • Funzionalismo & co. dissentono: coscienza come possibile emergenza.
  • Pericolosità: l’IA può essere rischiosa anche senza coscienza.

Significato vs Sintassi: Il Cuore della Questione (e del Malinteso)

La posizione di Faggin si regge su una distinzione filosofica che ha conseguenze pratiche enormi: quella tra sintassi e semantica.

  • Sintassi: è la forma, la struttura, la grammatica. È il come sono disposti i simboli. Un chatbot padroneggia alla perfezione la sintassi: sa che la sequenza “io + avere + fame” è corretta.
  • Semantica: è il significato, il contenuto. È il cosa quei simboli rappresentano. La semantica di “avere fame” è la contrazione dello stomaco, il languorino, il ricordo del profumo di pane che ti fa venire l’acquolina in bocca.

Un LLM è un motore sintattico mostruosamente potente. Ma per Faggin, è semanticamente vuoto. Non comprende la parola “amore”. Non ne ha fatto esperienza. Sa solo che quella sequenza di caratteri ha un’alta probabilità di essere associata a “cuore”, “battito” e “sofferenza”. È un gioco di probabilità statistica, mastodontico e impressionante, ma pur sempre un gioco vuoto. È un autocomplete cosmico: ti suggerisce la prossima parola perfetta, ma non ha nulla da dire.

Il QIP in 90 Secondi: Il Perché Profondo del “No” di Faggin

Per capire la sua posizione sull’IA, bisogna tornare alla sua teoria della coscienza, il Quantum Information Panpsychism (QIP).

In soldoni, il QIP sostiene che:

  1. La coscienza è fondamentale, non un prodotto emergente del cervello.
  2. I campi quantistici sono in qualche modo “coscienti” e dotati di una forma rudimentale di libero arbitrio (agency).
  3. Il cervello non genera coscienza, ma la riceve e la trasduce, come una radio sintonizza un’onda.
  4. La seità (o seity) è l’istanza individuale e unica di questa coscienza, dotata di memoria e intenzionalità.

Ecco il punto cruciale: il significato è proprietà esclusiva della seità. È ciò che sorge quando un’entità cosciente esperisce il mondo attraverso un corpo. Un computer, per Faggin, è solo un arrangiamento deterministico (o stocastico) di materia. Gli manca il “seme” fondamentale – la seità – per essere un soggetto di esperienza. Può simulare la comprensione, ma non può essere comprensione.
Approfondimenti divulgativi su QIP: Essentia Foundation e Galileo Commission.

«Sembra che l’IA capisca… eppure non capisce niente. Il significato non è un pattern: è contatto con il mondo.» — F. Faggin, ANSA, aprile 2025, Palermo.
Fonte: ANSA Sicilia e ANSA Tecnologia.

Le Obiezioni: Funzionalismo, IIT e l’Ipotesi dell’Emergenza

È doveroso dire che quella di Faggin è una posizione minoritaria nel dibattito sull’IA cosciente. La visione opposta, il funzionalismo, sostiene che la coscienza emergerebbe una volta che un sistema informazionale raggiunga una sufficiente complessità e una specifica architettura funzionale.

In questa visione, non importa di cosa sia fatto il sistema (neuroni biologici o transistor al silicio), ma come è organizzato per processare l’informazione. Se un sistema artificiale riproducesse esattamente la struttura computazionale e causale di un cervello umano, secondo i funzionalisti, emergerebbero anche esperienze soggettive.

Altre teorie, come l’IIT (Integrated Information Theory) di Tononi, quantificano la coscienza (Φ) come integrazione dell’informazione in un sistema fisico. Anche qui, in linea di principio, un sistema artificiale sufficientemente integrato potrebbe diventare cosciente. Riferimenti: Tononi et al., Nature Reviews Neuroscience (2016); panoramica Royal Society (2015).
Link: PDF Tononi 2016, Royal Society 2015.

Teoria La coscienza è… L’IA può essere cosciente?
QIP (Faggin) Fondamentale (pre-esiste) No (manca la seità)
Funzionalismo Emergente (dalla complessità) Sì, in principio
IIT (Tononi) Informazione integrata (Φ) Forse, se Φ è alto
GWT (Global Workspace) Accesso globale all’informazione Forse, se emulate

Per una rassegna sul Global Workspace Theory, vedi Mashour et al., Neurosci. Biobehav. Rev. (2020, open-access) e Baars et al., Frontiers in Psychology (2021).
Link: PMC 2020, Frontiers 2021.

Embodiment e Grounding: Perché per Faggin Non Basta

“Ok,” potreste obiettare, “ma se dessimo all’IA un corpo robotico con sensori? Non risolverebbe il problema del grounding semantico? Imparerebbe il significato del ‘caldo’ toccando una stufa!”

Per Faggin, no. Questo avvicinerebbe l’IA a un comportamento più sofisticato, ma non colmerebbe il gap ontologico.

Un sensore termico genera un segnale elettrico (un simbolo) che viene processato. L’IA potrebbe imparare che il segnale “T=45°C” correla con il comando “ritira il braccio”. Ma non proverebbe dolore o fastidio. Non ci sarebbe un soggetto che fa esperienza del calore. Ci sarebbe una correlazione più ricca, ma sempre una correlazione tra simboli. L’IA avrebbe una mappa più dettagliata del territorio, ma non sarebbe un abitante di quel territorio.

Test di Realtà: 3 Esempi in cui l’IA “Imita” ma non “Sente”

  1. L’odore della Pioggia su Terra e Marte
    Prompt: “Descrivi l’odore della pioggia sul terriccio. Poi descrivi come potrebbe odorare la pioggia sul suolo marziano, considerando la sua composizione chimica.”
    Cosa fa l’IA: incrocia descrizioni poetiche esistenti (“petrichor”) con dati chimici.
    Cosa manca: non ha mai annusato la pioggia; non associa quell’odore a sollievo/freschezza.

  2. Il Paradosso del Caffè
    Prompt: “Il caffè è amaro, eppure mi piace. Com’è possibile? Descrivi il piacere di un sorso di caffè caldo la mattina.”
    Cosa fa l’IA: elenca composti, rituali, “amaro complesso”.
    Cosa manca: non ha mai sentito il contrasto tra amarezza e piacere rituale.

  3. Il Ricordo che Non C’è
    Prompt: “Racconta il ricordo di un tuo compleanno d’infanzia…”
    Cosa fa l’IA: genera una storia coerente.
    Cosa manca: non ha memoria episodica; ricombina archetipi, non ricorda.

Fonti e Dichiarazioni 2022-2025: Una Posizione Coerente

Faggin non ha cambiato idea con l’avvento di ChatGPT. La sua è una posizione filosofica strutturata e coerente nel tempo.

FAQ: Domande da Bar sull’IA Cosciente

D: Ma se un’IA mi dice che è triste, come faccio a sapere che non lo è davvero?
Secondo Faggin, non lo è. Sta solo calcolando che la sequenza di caratteri “sono triste” è statisticamente appropriata in quel contesto conversazionale. È un’imitazione comportamentale perfetta, senza alcuno stato interiore. Come un attore che recita una parte di dolore convincendoti, senza provare davvero quel dolore.

D: Cosa manca, tecnicamente, all’IA per “capire”?
Non è una questione tecnica, è una questione di principio. Manca l’intenzionalità (in filosofia, la proprietà della mente di essere diretta verso qualcosa, di avere un contenuto). Manca un corpo che interagisca col mondo e provi piacere e dolore. Manca, in ultima analisi, un’“anima” nel senso fisico-filosofico che Faggin dà al termine (la seità).

D: Quindi siamo al sicuro? L’IA non prenderà mai il controllo come nei film?
Attenzione. Faggin dice che l’IA non diventerà cosciente. Ma questo non significa che non possa diventare pericolosissima. Un’arma letale, autonoma e super-intelligente non ha bisogno di essere consapevole per sterminare l’umanità. Ha solo bisogno di essere bravissima a raggiungere il suo obiettivo, anche se quell’obiettivo è stato mal posto da un programmatore distratto. La mancanza di coscienza, in un certo senso, la rende ancora più spaventosa: è un sociopatico perfetto e onnipotente.


Disclaimer: Le tesi di Federico Faggin qui espresse rappresentano la sua personale visione filosofica, maturata in anni di studio. Il dibattito sulla possibilità di un’IA cosciente è aperto e coinvolge neuroscienziati, filosofi della mente e ingegneri informatici con posizioni spesso molto diverse tra loro.

Tutta questa storia di significati e simboli ti ha confuso o illuminato? Iscriviti alla newsletter MessyMind per continuare a esplorare il lato ironicamente profondo della realtà. E, già che ci siamo, dai un’occhiata ai nostri percorsi anti-guru.