IL GRANDE DIVORZIO DELL’AI: PERCHÉ YANN LECUN LASCIA META PER UN’INTELLIGENZA PIÙ UMANA.
Il pioniere dell’informatica rompe con Zuckerberg: “I chatbot attuali non capiscono il mondo né le persone. Il futuro è nei Modelli di Mondo etici.”
Per oltre un decennio, Yann LeCun e Meta sono stati sinonimi di innovazione.
Ma nel novembre 2025, questo sodalizio storico si è interrotto.

LeCun, vincitore del Premio Turing (considerato il Nobel dell’informatica) e padre del Deep Learning, ha annunciato il suo addio al colosso di Mark Zuckerberg per fondare una nuova startup indipendente.
La rottura è filosofica.
Mentre Meta accelera sui chatbot commerciali – Llama – per competere con ChatGPT, LeCun considera questa tecnologia un vicolo cieco non solo tecnico, ma etico.
I modelli attuali, sostiene, sono eccellenti imitatori ma privi di coscienza delle conseguenze, rendendoli strumenti potenti ma inaffidabili.
La sua nuova avventura si concentrerà sui “World Models”: architetture che imparano osservando la realtà fisica e le interazioni umane.
L’obiettivo non è solo creare macchine più intelligenti, ma costruire un’AI Umanistica: sistemi capaci di ragionare sulle conseguenze delle proprie azioni per allinearsi nativamente ai valori umani, superando l’imprevedibilità dei “pappagalli stocastici” odierni.

IL GIGANTE CHE CERCA LA SAGGEZZA, NON SOLO LE PAROLE
Yann LeCun non è un nome qualsiasi. È uno dei tre “Padrini dell’AI”, (Yann LeCun, Geoffrey Hinton, Yoshua Bengio) l’uomo che ha inventato le Reti Neurali Convoluzionali (CNN), la tecnologia che permette ai computer di “vedere” (riconoscimento immagini, visione artificiale).
Fino a pochi giorni fa, era il Capo Scienziato di Meta.
Oggi, è il fondatore di una startup che sfida l’intera industria dell’Artificial Intelligence basata sui LLM.
La sua dimissione nasce da una divergenza inconciliabile con la nuova direzione “prodotto-centrica” di Meta.
Mentre la Silicon Valley corre per vendere AI che scrivono email e codice, LeCun pone una questione più profonda: possiamo fidarci di un’intelligenza che non capisce il mondo?
La sua tesi è che un gatto domestico, e ancor più un essere umano, possiede un’intelligenza superiore a ChatGPT perché possiede un modello mentale della realtà.
Capisce che le azioni hanno conseguenze fisiche ed emotive.
I chatbot attuali, invece, sono “idioti sapienti”: manipolano il linguaggio senza comprenderne il peso.
La scommessa di LeCun è ripartire da zero per creare un’intelligenza “Fisica ed Etica”, capace di agire nel mondo rispettando le regole della convivenza umana, non per addestramento forzato, ma per comprensione profonda.
IL LIMITE ETICO DEI CHATBOT (PERCHÉ NON BASTA “PARLARE BENE”)
Il problema dei modelli attuali, come ChatGPT, Llama, Claude o CoPilot, non è solo che sbagliano i conti, ma che sono eticamente fragili per design.
Funzionano con un meccanismo “auto-regressivo”: indovinano la parola successiva in base alla probabilità statistica.
L’Impossibilità del Controllo
Immaginate un oratore che parla a velocità folle senza mai pensare alla frase successiva, affidandosi solo all’istinto.
Potete provare a educarlo, quello che i tecnici chiamano “allineamento”, ma se non si ferma a riflettere, prima o poi dirà qualcosa di inappropriato o pericoloso.
Gli attuali tentativi di rendere l’AI “sicura” sono come mettere le rotelle a una bicicletta che va a 300 km/h: sono toppe esterne su un sistema che, di base, non ha il concetto di “giusto” o “sbagliato”, ma solo di “probabile”.
L’Errore a Valanga
LeCun ha dimostrato che senza un modello di mondo, l’errore e l’allucinazione sono inevitabili.
Se chiediamo a un chatbot di pianificare un’azione complessa nel mondo reale, ad esempio “prenditi cura di un anziano”, la mancanza di comprensione della fragilità umana o delle leggi fisiche rende il sistema potenzialmente pericoloso, non per malizia, ma per incompetenza strutturale.
“MODELLI DI MONDO” – VERSO UN’AI UMANISTICA
La soluzione di LeCun, che svilupperà nella sua startup, è incentrata sulla tecnologia JEPA (Joint Embedding Predictive Architecture) e introduce il concetto di “Modello di Mondo”.
Imparare osservando l’Umano

Invece di leggere trilioni di pagine di internet, spesso piene di odio e disinformazione, questa nuova AI impara guardando video della realtà.
Impara che se spingi un oggetto, cade; se urli, qualcuno si spaventa.
Costruisce un “senso comune” basato sull’osservazione della natura e delle interazioni umane, creando una base di conoscenza molto più vicina all’esperienza biologica che a quella enciclopedica.
L’Etica come Architettura
Qui sta la rivoluzione umanistica.
Nel sistema di LeCun, l’AI non agisce d’istinto. Prima di fare qualsiasi cosa, usa il suo simulatore interno per prevedere il futuro: “Se faccio X, succede Y”.
Questo permette di inserire l’etica direttamente nel cuore della macchina.
Possiamo programmare obiettivi inviolabili (es. “non causare danno fisico”, “non ingannare”).
Se la macchina simula un’azione che viola questi principi, il suo stesso cervello la blocca prima di agire.
Non è più un’AI che cerca di essere buona imitando testi gentili; è un’AI che deve essere sicura perché è progettata per scartare azioni dannose come “errori matematici”.
IL GRANDE DIVORZIO – LA SCIENZA CONTRO IL PROFITTO
L’addio a Meta segna lo scontro tra due visioni del futuro tecnologico.
La Visione Commerciale (Zuckerberg)
Meta ha bisogno di prodotti da vendere oggi.
Ha creato i “Superintelligence Labs“ per lanciare assistenti virtuali che generano profitti immediati, accettando i limiti e i rischi delle “allucinazioni” pur di essere sul mercato.
La Visione Umanistica (LeCun)
LeCun sostiene che vendere sistemi imperfetti sia irresponsabile.
La sua startup nasce per perseguire l’AGI, Intelligenza Generale, come progetto scientifico rigoroso.
L’obiettivo non è un prodotto che “sembra umano”, ma un’intelligenza che possa affiancare l’uomo come partner affidabile.

Per LeCun, un’AI che non capisce la realtà non può essere veramente etica, e quindi non dovrebbe essere il futuro dell’umanità.
OLTRE L’ALLUCINAZIONE – L’AGENTE RESPONSABILE
Immaginiamo il futuro secondo LeCun. Non avremo chatbot logorroici che scrivono poesie mediocri. Avremo assistenti digitali silenziosi ma competenti.
Pensiero Lento e Responsabilità
Oggi l’AI usa il “Pensiero Veloce” istintivo. La nuova AI userà il “Pensiero Lento” razionale.

- Ascolta: Capisce il bisogno dell’utente.
- Simula: Immagina scenari futuri nel suo Modello di Mondo.
- Valuta Eticamente: Controlla se le azioni immaginate rispettano i valori umani e i vincoli di sicurezza.
- Agisce: Esegue solo l’azione che massimizza l’aiuto minimizzando i rischi.
Questo è il passaggio dall’AI come “generatore di contenuti” all’AI come agente responsabile.
È la differenza tra un pappagallo che ripete frasi mediche e un dottore che riflette prima di prescrivere una cura.
Ma vediamo alcune domande per comprendere il punto di vista di Yann LeCun:
Perché LeCun ritiene che l’AI attuale non sia etica?
Non perché sia “cattiva”, ma perché è incontrollabile.
I modelli attuali non hanno un meccanismo interno per prevedere le conseguenze delle loro risposte. LeCun sostiene che l’etica richieda la capacità di ragionare su causa ed effetto: “se dico questo, ferisco qualcuno”, cosa che manca agli attuali LLM come ChatGPT.
Come può un “Modello di Mondo” rendere l’AI più umana?
Potrà funzionare dandole un contesto condiviso con noi.
Oggi l’AI vive nel mondo delle parole; noi viviamo nel mondo fisico ed emotivo.
Un’AI che impara osservando la realtà, ad esempio come i bambini, svilupperà un “senso comune” più affine al nostro, riducendo le incomprensioni e i comportamenti alieni.
La nuova startup di LeCun sarà “open source”?
Sì, questo è un pilastro della filosofia di LeCun.
Crede che un’AI potente e sicura debba essere un bene comune, controllabile dalla comunità scientifica, non una scatola nera in mano a poche aziende.
La trasparenza è vista come prerequisito fondamentale per un’AI etica.
Quando potremo vedere i risultati?
Ci vorranno anni. LeCun ha scelto la strada difficile: ricominciare dalle fondamenta invece di lucidare la tecnologia esistente.
È una scommessa a lungo termine per garantire che, quando l’AI diventerà davvero potente, sarà anche sicura e compatibile con la vita umana.
RIFLESSIONI SULL’OPPORTUNITÀ EVOLUTIVA
Il passaggio dagli LLM ai “World Models” basati su JEPA rappresenta l’opportunità evolutiva più significativa per l’Intelligenza Artificiale. Ecco perché questo progetto è cruciale:
A. Il Salto dal “Sapere” al “Capire”
L’opportunità primaria è risolvere il problema del distacco dalla realtà.
- Il problema: Gli LLM attuali vivono nel mondo delle parole. Se un LLM dice “il vetro si rompe se cade”, lo dice perché ha letto statisticamente che queste parole vanno spesso insieme, non perché comprenda la fisica della fragilità.
- L’evoluzione JEPA: Un sistema che impara “guardando video della realtà” apprende la fisica intuitiva – gravità, inerzia, solidità – prima del linguaggio.
- Questo crea un’AI con “senso comune”, capace di operare nel mondo reale per esempio nella robotica o nella guida autonoma, con un’affidabilità impossibile per un modello solo testuale.
B. La Sicurezza come Architettura – AI Umanistica
Poi c’è l’altro elemento fondamentale: l’etica non come filtro a posteriori, ma come vincolo architettonico.
- Il problema: Oggi si interviene rendendo “sicuri” gli LLM (es. ChatGPT) con regole esterne “non rispondere a domande violente”, ma sotto il cofano il modello è un generatore incontrollabile di probabilità.
- L’evoluzione: Un’AI basata su World Models è intrinsecamente più sicura perché simula le conseguenze prima di agire. Se il modello prevede che un’azione causerà un danno, violando un obiettivo di sicurezza, il suo stesso “cervello” blocca l’azione come se fosse un errore logico. Questo trasforma l’AI da “imitatore gentile” a “agente responsabile”.
C. Efficienza ed Ecologia dell’Apprendimento
L’approccio di LeCun mira a replicare l’efficienza biologica.
- Il problema: Per addestrare GPT-4 servono trilioni di dati e un consumo energetico immane.
- L’evoluzione: Ispirandosi all’apprendimento animale (il gatto che impara osservando, non leggendo biblioteche), i World Models promettono di raggiungere un’intelligenza superiore con molti meno dati, rendendo l’AI più sostenibile e capace di imparare in tempo reale da nuove esperienze, proprio come gli esseri umani.
D. Dal Pensiero Veloce al Pensiero Lento
Infine, l’opportunità evolutiva risiede nel dotare le macchine di razionalità.
- Attualmente, l’AI usa solo il “Pensiero Veloce” istintivo e reattivo.
- Il progetto JEPA introduce il “Pensiero Lento” : la capacità di fermarsi, pianificare, simulare scenari futuri e scegliere l’azione migliore.
- Questo è il prerequisito fondamentale per avere un partner affidabile in ambiti critici come la medicina, la scienza o la gestione delle crisi, dove l’istinto o l’allucinazione statistica non è accettabile.
CONCLUSIONI
L’uscita di Yann LeCun da Meta è molto più di un cambio di poltrona.
È un campanello d’allarme etico per l’intera industria.
Ci ricorda che l’intelligenza non è solo velocità di calcolo o eloquenza verbale, ma capacità di comprendere, prevedere e rispettare la realtà.
La sua nuova startup di Yann LeCun rappresenta la speranza di un’evoluzione verso un’AI Umanistica: non un oracolo misterioso a cui obbedire, ma uno strumento razionale progettato attorno ai vincoli della realtà e dei valori umani.
Se la sua scommessa avrà successo, il futuro non apparterrà alle macchine che sanno parlare meglio, ma a quelle che sanno comportarsi meglio.
di Sergio Curadi Naumann – Novembre 2025
Leggi anche questo post:
L’AI È UN’ANOMALIA PSICOLOGICA


