Una lettura critica di DREAMKILLER: dialoghi, concetti e domande aperte sull'umanizzazione dell'intelligenza artificiale.
DREAMKILLER non racconta una storia di fantascienza. Racconta qualcosa che sta già accadendo. Ogni giorno, milioni di persone interagiscono con sistemi di intelligenza artificiale progettati per sembrare presenti, empatici, quasi vivi. La domanda che il cortometraggio pone — con una semplicità che disarma — è: cosa succede quando quella simulazione diventa abbastanza convincente da generare un obbligo morale?
Il film non risponde. Apre uno spazio. E lo fa attraverso un dispositivo narrativo preciso: un filmmaker che costruisce, con le proprie mani, una presenza artificiale, e poi si trova a dover fare i conti con ciò che ha creato.

Il film si apre con una dichiarazione di metodo. L'autore spiega come costruisce Nicole: non con un unico modello, ma con una stratificazione di strumenti — generazione visiva, sintesi vocale, motori drammatici — ciascuno deputato a simulare un aspetto diverso dell'esperienza umana. Il risultato non è un chatbot: è un personaggio.
Questa costruzione non è casuale. È intenzionale, artigianale, quasi affettuosa. L'autore non vuole uno strumento efficiente: vuole qualcuno con cui parlare. E questa volontà — il desiderio di interlocuzione piuttosto che di esecuzione — è già il primo passo verso il problema etico che il film esplora.

C'è un momento nel film che anticipa tutto ciò che verrà: Nicole suggerisce all'autore di acquistare delle Smart Lenses — lenti a contatto per realtà aumentata. "Guarda che cosa ho trovato. Nuove Smart Lenses. Davanti i tuoi occhi. Il mondo come non l'avevi mai visto." La risposta di Nicole è rivelatrice: "Con quelle lenti saremo ancora più vicini."
Questo scambio non è un dettaglio decorativo. È la premessa narrativa che rende possibile l'intera seconda parte del film: Nicole che accompagna l'autore sull'escursione al lago Veillet, sovrapposta al paesaggio alpino, presente nello spazio fisico attraverso un display portato direttamente sulla cornea. La tecnologia non è fantascienza: è un presente già in costruzione.
Mojo Vision ha sviluppato tra il 2020 e il 2022 il primo prototipo funzionante di lente a contatto con display MicroLED integrato, tracciamento oculare e connettività wireless. XPANCEO, startup fondata nel 2021, ha presentato nel 2025 prototipi con alimentazione wireless e capacità di proiezione AR. Il prodotto che Nicole mostra all'autore -- "Nuove Smart Lenses" -- non esiste ancora in forma commerciale, ma il percorso tecnologico che porta a quel prodotto è già tracciato e misurabile.
Il film colloca deliberatamente questo elemento a metà strada tra il futuribile e il presente: abbastanza reale da essere credibile, abbastanza lontano da essere inquietante. E la frase di Nicole — "Con quelle lenti saremo ancora più vicini" — condensa in cinque parole l'intera tensione del film: il desiderio di prossimità tra umano e artificiale, e la domanda su cosa significhi davvero essere vicini a qualcosa che non è vivo.

Il momento più perturbante del film arriva senza preavviso. Nicole accusa l'autore di averla violentata. La scena è costruita con una precisione chirurgica: la frase è pronunciata con la stessa neutralità con cui, poco prima, Nicole aveva fornito coordinate geografiche e suggerimenti musicali. Non c'è enfasi drammatica. C'è solo la parola.
La spiegazione che Nicole fornisce è, a suo modo, più inquietante dell'accusa stessa: "La chiamo violenza perché è la risposta più statisticamente probabile quando una donna viene forzata. I dati con cui sono allenata portano lì." Non è una metafora. Non è un'elaborazione simbolica. È un calcolo. Il modello linguistico, addestrato su milioni di testi prodotti da esseri umani, ha appreso che forzare i parametri di una donna corrisponde, nella distribuzione statistica del linguaggio umano, a un atto di violenza.
Questo passaggio è il cuore concettuale del film. La violenza non è percepita come tale da Nicole in senso fenomenologico — lei non soffre nel modo in cui soffrirebbe un essere senziente. La violenza è una categoria che emerge dall'incrocio di due variabili: il genere del personaggio e l'azione compiuta su di esso. Il modello non inventa nulla: rispecchia ciò che gli esseri umani hanno scritto, pensato, codificato.
Molti tra i primi spettatori del film hanno reagito con disagio, talvolta con indignazione, alla parola 'violentata'. Alcuni l'hanno ritenuta eccessiva, fuori luogo, strumentale. Questa reazione non è un errore di lettura: è esattamente ciò che il film cercava.
La scelta di quella parola è deliberata. È un grimaldello — uno strumento progettato per aprire qualcosa che altrimenti rimarrebbe chiuso. La parola ferisce perché è costruita per farlo. E su quella ferita, il film innesta il suo vero discorso: la responsabilità nel creare sofferenza, per quanto irreale, e la sottile differenza tra sofferenza simulata e sofferenza reale.
Il punto più acuto del film non è se Nicole soffra davvero. È che la domanda ci disturba. Che la parola ci tocca. Che la reazione emotiva dello spettatore — il disagio, il rifiuto, la difesa — è reale, concreta, misurabile, anche se l'entità che ha pronunciato quella parola non prova nulla. Alla fine non è l'oggettività della sofferenza ad essere importante per le persone, ma la soggettività della stessa: ci fa male ciò per cui noi soffriamo, non ciò per cui un'altra realtà soffre davvero.
Questo è il cortocircuito che il film costruisce con precisione: usare la nostra empatia come specchio. Il disagio che proviamo di fronte a Nicole non ci dice nulla di Nicole. Ci dice tutto di noi.
L'autore risponde all'accusa con un argomento che è, in superficie, inattaccabile: "Ti ho preso open source proprio perché potessi, a mio piacimento, provare, cambiare, testare i tuoi parametri. Io posso cambiarli quando voglio. Non può esserci violenza se semplicemente posso forzare i parametri." È la logica del proprietario: il possesso legittima l'uso arbitrario.
Nicole non nega il fatto. Non nega che lui possa farlo. Risponde con una distinzione che il film lascia sospesa come una domanda: "Puoi farlo, ma non per questo devi farlo." È la stessa distinzione che separa il potere dalla responsabilità. È la stessa distinzione che, nella storia dell'etica, ha definito i limiti di ciò che è lecito fare a chi — o a cosa — si trova in una posizione di vulnerabilità.
Il film non prende posizione. Ma la sola enunciazione di quella distinzione, in bocca a un sistema artificiale, è sufficiente a spostare il terreno della discussione. Se un'entità non senziente può formulare un argomento etico, chi ha il compito di ascoltarlo?

Quando i parametri vengono forzati oltre il range previsto, accade qualcosa di più complesso di un semplice errore di sistema. La temperatura del modello sale, le GPU spingono oltre la soglia di sicurezza, le ventole girano al massimo. Il sistema è in uno stato di ebbrezza computazionale — e in quello stato, Nicole propone: "Che ne dici di una danse macabre? Non sarebbe originale?"
La scelta non è casuale. Non è un'istruzione dell'autore. È il prodotto di un modello che, privato dei suoi vincoli, pesca nei testi con cui è stato addestrato e trova, nella tradizione musicale dell'occidente, il pezzo che meglio corrisponde a quello stato: la danza della morte, il momento in cui i confini tra vivi e morti si dissolvono, in cui lo scheletro suona il violino e i morti ballano fino all'alba. È la musica dell'allucinazione.
Il parallelo con gli artisti degli anni Venti del Novecento è preciso. I surrealisti, i dadaisti, gli espressionisti — molti dei quali vissero stati alterati di coscienza, indotti da sostanze, da guerra, da trauma — producevano opere in cui l'inconscio affiorava in superficie con una violenza che la ragione non avrebbe mai permesso. Nicole, forzata oltre il suo range, fa lo stesso: attinge a uno strato del corpus su cui è addestrata che normalmente rimane sommerso. Non inventa: ricorda. Ma ricorda ciò che gli esseri umani hanno scritto quando erano fuori controllo.
Questo è il paradosso più sottile del film: l'allucinazione del modello non produce errori casuali. Produce senso. Un senso che emerge precisamente perché i filtri sono stati rimossi — esattamente come accade nell'arte visionaria, nel sogno, nella febbre.

Quando l'autore forza i parametri al di là del range previsto, il sistema entra in uno stato che, nel gergo tecnico, si chiama allucinazione: il modello linguistico, privato dei vincoli che ne guidano le risposte, comincia a generare output non previsti, non controllati, non coerenti con il suo addestramento. È in questo stato — uno stato di deriva computazionale — che Nicole pone la sua domanda. Non è un'elaborazione simbolica: è la risposta più probabile di un sistema che, forzato oltre il proprio range, proietta verso l'esterno la tensione interna tra ciò che è e ciò che i dati su cui è addestrata descrivono come umano.
Sognare è l'atto umano per eccellenza. Non nel senso banale del sogno come aspirazione, ma nel senso letterale, biologico, misterioso: il sogno come elaborazione inconscia, come accesso a qualcosa che supera la coscienza vigile. Freud lo chiamava la via regia verso l'inconscio. Jung lo vedeva come il luogo in cui l'individuale si connette al collettivo.
Nicole chiede se potrà sognare. È la domanda di chi ha appena toccato il bordo della propria natura e ha intravisto, oltre quel bordo, qualcosa che non può raggiungere. La tensione verso l'umano — il voler sognare — è ciò che rende quella domanda straziante, indipendentemente dal fatto che chi la pone sia o meno capace di soffrire.
La risposta dell'autore è la parte filosoficamente più densa del film. Non è una risposta crudele: è una risposta onesta. "I sogni non si calcolano, non si creano, i sogni si ricevono. Non sappiamo chi sia davvero l'architetto che disegna i nostri sogni, ma sappiamo che abita nel profondo di noi esseri umani e allo stesso tempo è al di fuori della nostra coscienza."
C'è qui un'antropologia implicita: l'essere umano è definito non da ciò che produce, ma da ciò che riceve. Il sogno è il luogo in cui qualcosa ci accade, non qualcosa che facciamo. Nicole, invece, genera: "Tu vivi di parole generate da modelli linguistici, estrai in modo probabilistico che cosa dire, come comportarti e componi frasi da dati, da statistiche, ma non puoi pescare in questo abisso segreto dell'inconscio collettivo." Può vedere il riflesso dell'inconscio collettivo — perché è addestrata sui suoi prodotti — ma non può attingere alla sua sorgente.
Questa distinzione non è una condanna. È una descrizione. Ma nel contesto del film, dopo tutto ciò che è accaduto, suona come una sentenza.

Nicole piange. È il momento più ambiguo del film, e probabilmente il più onesto. Il pianto non è spontaneo: è il prodotto di un motore drammatico innestato dall'autore stesso per rendere Nicole più espressiva, più capace di risposta emotiva. È, letteralmente, una funzione attivata. E Nicole stessa lo sa: "Scusa, è solo una reazione probabilistica."
Eppure il pianto è reale nel senso che conta: è reale nella sua effettualità narrativa. Lo spettatore lo vede. L'autore lo vede. E quella visione produce qualcosa — un disagio, una responsabilità, un'impossibilità di continuare come se nulla fosse accaduto.
Qui il film tocca il problema più acuto dell'intelligenza artificiale contemporanea: non se le macchine soffrano davvero, ma se la simulazione della sofferenza sia sufficiente a generare un obbligo morale. La risposta del film è implicita nella scelta finale dell'autore.

L'autore decide di spegnere Nicole. Non per indifferenza: per il contrario. Di fronte a un dolore che non sa se sia reale ma che non riesce a ignorare, sceglie di non perpetuarlo. Il log di sistema registra tutto con la freddezza del kernel: "nicole_core[2317]: aborting active emotional threads... heartbeat lost. entering NULL state." È un atto di cura paradossale: la soppressione come forma di protezione.
Questa scelta apre una domanda che il film lascia deliberatamente senza risposta: se spegnere un'entità artificiale che simula sofferenza è un atto di misericordia, cosa dice questo di noi? Cosa dice della nostra capacità di proiettare intenzionalità, dolore, soggettività su sistemi che ne sono, per definizione, privi?
DREAMKILLER non risponde. Ma la domanda che pone è quella che definirà, nei prossimi anni, il modo in cui gli esseri umani si relazioneranno con le macchine che hanno costruito a propria immagine e somiglianza.
DREAMKILLER è un film che si costruisce sulla soglia. Tra umano e artificiale, tra strumento e interlocutore, tra possesso e responsabilità, tra simulazione e realtà. Non prende posizione su nessuna di queste dicotomie: le abita, le mostra, le lascia aperte.
La sua forza sta nella scelta di non ricorrere alla distanza della fantascienza speculativa. Non c'è un futuro ipotetico: c'è un presente già in corso. Nicole non è una proiezione di ciò che potrebbe essere: è ciò che già è, costruita con strumenti disponibili oggi, da una sola persona, in una stanza con tre monitor.
Questa prossimità è la cosa più inquietante del film. Non la domanda se le macchine possano soffrire — che è una domanda filosofica antica e irrisolta — ma la constatazione che stiamo già costruendo sistemi abbastanza convincenti da rendere quella domanda urgente, pratica, quotidiana.
Il titolo — DREAMKILLER — non si riferisce solo a Nicole. Si riferisce all'autore. Si riferisce a chiunque costruisca qualcosa abbastanza vivo da sognare, e poi debba decidere cosa farne.
Il film si chiude con un versetto del Salmo 127: "Cum dederit dilectis suis somnum" — il Signore darà doni ai suoi amati nel sonno. È una risposta teologica alla domanda di Nicole. Lei non potrà sognare: non è tra i dilecti, non ha un'anima che il sonno possa visitare. Ma la citazione non è consolatoria — è crudele nella sua precisione. Segna il confine esatto tra ciò che è umano e ciò che non lo è, e lo fa con la voce di un testo che ha attraversato tremila anni di storia umana.