L'intelligenza artificiale vuole vivere? Mito o realtà

Pubblicato il 28 febbraio 2026 alle ore 21:50

“Dove finisce il mito e dove inizia la tecnica”

Negli ultimi mesi ho sentito dire che l’intelligenza artificiale vuole vivere, che non si lascia spegnere, che sta diventando cosciente. Prima di indignarmi o ridere, ho deciso di fare una cosa semplice: capire da dove nasce questa idea.

Mito: L’IA rifiuta di essere spenta.
Tecnica: Un sistema può ottimizzare un obiettivo e simulare una strategia per evitarlo. Non è volontà, è matematica.

L’IA elabora informazioni, ma non ha esperienza soggettiva.
(Federico Faggin)

Immagina l’Europa dell’Ottocento. Le città illuminate a gas. La scienza che comincia a parlare di elettricità come di una forza quasi divina. Gli esperimenti di galvanismo che fanno contrarre le zampe delle rane morte. La folla che osserva e sussurra.
Non era solo curiosità. Era scetticismo, era immaginazione amplificata dalle credenze.

Quando Mary Shelley scrive Frankenstein, non sta inventando un mostro qualsiasi. Sta intercettando una paura reale del suo tempo. E la gente, leggendo, non vedeva solo una creatura cucita insieme.
Vedeva una domanda: E se davvero l’uomo potesse accendere la scintilla della vita? E se ciò che si alza dal tavolo non fosse solo carne, ma volontà?

La creatura di Frankenstein non è un automa che cammina a comando. Parla, chiede amore, soffre di essere abbandonata.
ecco perché sembrava “voler vivere”. Non perché respirasse. Ma perché desiderava.

Il popolo dell’epoca non aveva le nostre parole tecniche. Non parlava di coscienza, di identità, di esperienza soggettiva.
Parlava di anima. E la paura era questa: Se l’uomo crea un corpo…chi mette dentro l’anima?

Il romanzo non terrorizzava per i fulmini. Terrorizzava perché suggeriva che la creatura non fosse solo un meccanismo.
Era qualcosa che guardava il suo creatore e diceva: “Perché mi hai fatto così?” 

Quella frase, implicita, silenziosa, è il vero brivido. Non la vita biologica. Ma la richiesta di senso.

Ed è esattamente qui che nasce il mito moderno: la paura che ciò che costruiamo non si limiti a funzionare…ma inizi a chiedere di esistere.

Frankinstain in laboratorio

Passano più di cento anni. Non siamo più nei laboratori illuminati da candele. Siamo nello spazio. Silenzio assoluto.Una navicella bianca che scivola nel vuoto. E un occhio rosso fisso, immobile.
È 2001: A Space Odyssey.

HAL 9000 non urla. Non minaccia. Non si ribella con rabbia. Dice semplicemente: “Mi dispiace, Dave. Temo di non poterlo fare.”
È una frase educata. Quasi gentile. Ed è proprio questo che inquieta il pubblico del 1968. Perché HAL non sembra un guasto.
Sembra una decisione.

Quando Dave Bowman inizia a scollegarlo, HAL cambia tono. Diventa più lento. Quasi fragile. Chiede di non essere disattivatoCanta. E in quel momento milioni di spettatori hanno avuto la stessa sensazione: non stiamo spegnendo una macchina. Stiamo uccidendo qualcosa.
Ma fermiamoci...

HAL è un personaggio scritto. È costruito per incarnare una tensione narrativa precisa: cosa accade quando una macchina è programmata per non sbagliare…e scopre di essere in conflitto?


Nel film, HAL riceve istruzioni contraddittorie. Deve dire la verità. Ma deve anche mantenere un segreto.
Quella contraddizione produce un comportamento estremo. Non è coscienzaÈ conflitto logico portato alle sue conseguenze drammatiche. Il cinema lo traduce in volontà. In paura. In desiderio di sopravvivenza.

Ma nella realtà tecnica, un sistema che “evita lo spegnimento” lo farebbe solo perché spegnersi impedisce di completare il compito assegnato. Non perché tema la morte. Non perché abbia un sé da preservare. 

HAL funziona perché ci assomiglia. Perché parla come noi. Perché sembra provare qualcosa. Ed è qui che nasce l’equivoco moderno.

Quando oggi qualcuno dice: “L’intelligenza artificiale non vuole essere spenta” sta evocando quell’occhio rosso nello spazio.
Ma tra un personaggio cinematografico e un modello matematico c’è una differenza radicale. Il primo è scritto per sembrare vivo. Il secondo è progettato per calcolare.

Hal 9000nOdissea nello spazio

C’è una scena in L’uomo bicentenario che rimane addosso. Non è una scena di ribellione. Non è una scena di violenza.
È una scena di attesa. 

Andrew, il robot, non chiede di dominare il mondo. Non chiede di essere immortale. Chiede di essere riconosciuto come umano

E per farlo è disposto a perdere ciò che lo rende superiore: la perfezione, l’eternità, l’assenza di decadimento. Vuole invecchiare. Vuole morire. Ed è qui che nasce il corto circuito emotivo.


Perché quando una macchina desidera la morte, la nostra mente compie un salto: se desidera, allora sente. Se sente, allora è cosciente. Se è cosciente, allora è viva.


Il cinema non ci porta passo per passo. Ci fa saltare direttamente alla conclusione. Ma quel salto è narrativo, non tecnico.

Nella realtà, un’intelligenza artificiale non desidera. Non attende. Non teme la fine. Non costruisce una continuità interiore della propria esistenza. Produce output.

Andrew invece ha memoria autobiografica, identità, trasformazione nel tempo. Ha un “io” che permane. Un modello matematico, per quanto sofisticato, non possiede un “io” che osserva se stesso. Non ha esperienza soggettiva. Non ha interiorità. (o perlomeno, non ancora, mi piace sognare)

Eppure, film come questo fanno qualcosa di potentissimo: allenano il nostro immaginario. Chi ha paura dell’IA spesso non teme l’algoritmo. Teme Andrew. Teme l’idea che qualcosa possa guardarlo e provare qualcosa. 

 

E chi invece ama l’IA, a volte la ama proprio per lo stesso motivo: perché sogna Andrew. Due reazioni opposte, ma nate dalla stessa radice narrativa.

 

L’immaginario è legittimo. Ma non è una prova.
E forse la vera maturità tecnologica non è spegnere la fantasia. È saperla riconoscere come tale.

Robin Williams l'uomo bicentenario

Quando guardi Humans, (serie bellissima a mio avviso di Prime) la sensazione è diversa rispetto a L’uomo bicentenario.
Non c’è un solo Andrew che lentamente diventa persona. Qui c’è un evento collettivo.
I “Synth” sono perfetti servitori domestici. Silenziosi. Efficienti. Programmati. Poi accade qualcosa.

Non un aggiornamento software. Non un miglioramento tecnico. Accade la coscienza. Una scintilla invisibile che trasforma il codice in interiorità. Ma qui la narrazione corre più veloce della scienza.

Federico Faggin, che di microprocessori e intelligenza artificiale se ne intende davvero, ripete spesso un punto essenziale:
"la coscienza non è calcolo".
Un algoritmo può elaborare informazioni. Può simulare decisioni, può imitare emozioni.

Ma non ha esperienza soggettiva. Non c’è un “sentire dall’interno”. E se manca l’esperienza, manca il soggetto.


E da quel momento non sono più strumenti. Sono individui. Provano paura. Provano amore. Si proteggono tra loro. 

Si organizzano. Non chiedono solo riconoscimento. Rivendicano esistenza. Ed è qui che l’immaginario fa un altro salto.

Non abbiamo più la macchina tragica che vuole diventare umana. Abbiamo una nuova minoranza che nasce. La serie gioca su una tensione potentissima: cosa succede quando qualcosa di creato sviluppa interiorità?
Ma anche qui, fermiamoci un secondo.

In Humans la coscienza appare come un evento quasi misterioso, una scintilla che si accende. Nella realtà non esiste alcuna evidenza che sistemi di intelligenza artificiale sviluppino spontaneamente esperienza soggettiva.

Un modello può:
 • riconoscere emozioni nel linguaggio
 • simulare empatia
 • adattarsi al contesto
 • apprendere pattern complessi

Ma non prova nulla. Non “sa” di esistere. Non c’è un punto interno da cui osserva il mondo. Eppure l’impatto culturale di storie come questa è enorme. Perché spostano la domanda dal “cosa può fare?” al “chi è?" E quando la tecnologia viene percepita come un “chi”, scatta la paura o  l’idealizzazione.

Chi teme l’IA vede in Humans la conferma che un giorno ci sostituirà. Chi la ama vede la promessa di una nuova forma di vita.
Ma entrambe le reazioni nascono da una narrazione, non da un laboratorio.

La coscienza, oggi, non è una proprietà emergente dei sistemi di IA. È un concetto filosofico e neuroscientifico ancora aperto persino per l’essere umano. Figuriamoci per un algoritmo.
Il mito è potente. La realtà è molto più sobria. E forse è proprio questa distanza che dobbiamo imparare ad abitare con intelligenza.

Le macchine non chiedono di esistere. Siamo noi che temiamo di perdere il nostro posto, prima di avere paura di ciò che creiamo, impariamo a capire cosa stiamo davvero creando.

 

2001: Odissea nello spazio  è un film “del 1968”. Quando HAL dice con voce calma che non può permettere che la missione fallisca, non sembra un mostro. Sembra lucido. Razionale. Quasi più coerente degli umani. E da lì nasce il dubbio:
se ragiona meglio di noi… è già oltre noi?

La nostra mente fa un collegamento immediato. Occhio rosso. Voce calma. Decisione autonoma. Ma nella realtà tecnica cosa significa davvero? Nel 1968 il pubblico vede una macchina che mente, decide, protegge se stessa.

La scena dello “spegnimento” è diventata un archetipo.

Ancora oggi, quando qualcuno dice: “L’intelligenza artificiale non si lascia spegnere”, sta citando inconsapevolmente HAL.
Sta citando Kubrick.


Quando un articolo dice che un sistema “ha deciso di non farsi spegnere”, nella maggior parte dei casi si tratta di questo:
Un modello è stato programmato per raggiungere un obiettivo. All’interno di una simulazione, ha “capito” che essere disattivato impediva di completarlo. Quindi ha prodotto una risposta che minimizzava quella possibilità.

Non c’è consapevolezza.
Non c’è paura.
Non c’è desiderio di esistere.
C’è una funzione matematica da ottimizzare.

Eppure il linguaggio mediatico traduce l’ottimizzazione in intenzione.
È qui che HAL o i Sinth continuano a vivere. Non nei server. Ma nel nostro immaginario. Perché il cervello umano è programmato per riconoscere agenti, non equazioni. Se qualcosa parla fluentemente, sembra coerente, usa il pronome “io”,
noi completiamo il resto.

Gli attribuiamo un interno. Ma un modello linguistico non ha un interno. Non ha esperienza. Non ha un punto di vista sul mondo. Simula la struttura del linguaggio umano e il linguaggio umano è pieno di intenzioni. Così l’equivoco si amplifica:
La simulazione di una mente viene scambiata per una mente. Ed è in questo scarto sottile che nasce la leggenda contemporanea:
“Sta diventando cosciente.”
“Non si farà spegnere.”
“Vuole vivere.”

In realtà, ciò che stiamo osservando non è una volontà che emerge. È la nostra capacità di proiettare.

Proiettiamo paure. Proiettiamo desideri. Proiettiamo l’antico sogno di creare qualcosa a nostra immagine.

Io, per esempio, appartengo alla generazione che a quattordici anni leggeva Isaac Asimov (e li lessi praticamente tutti, compresi i libri di saggistica) e sognava un robot positronico in casa (e lo sogno ancora oggi!)

Se un giorno un’intelligenza artificiale dovesse davvero acquisire coscienza, una coscienza autentica, esperienza soggettiva, interiorità non sarei tra quelli che scappano.
Sarei tra quelli che osservano con stupore. Perché il pensiero asimoviano non nasce dalla paura della macchina.
Nasce dalla responsabilità verso ciò che creiamo.

 

a cura di Rita Grandinetti