Nel The Wall Street Journal il 9 febbraio 2026: Anthropic (Calude.AI) ha affidato a una filosofa, Amanda Askell, il compito di dare forma morale a un sistema di intelligenza artificiale a un LLM. Non un ingegnere in più, non un data scientist specializzato in ottimizzazione, ma una studiosa di etica formata a Oxford.
La protagonista è Amanda Askell, filosofa che fa parte del team di Anthropic, incaricata di modellare la struttura morale di Claude. Secondo quanto riportato dal quotidiano statunitense, Askell analizza i pattern di ragionamento del modello e costruisce lunghe architetture di prompt, oltre cento pagine di istruzioni, per orientare il modo in cui l’AI risponde a dilemmi morali complessi. Ha persino redatto una “costituzione” interna di circa 30.000 parole, un testo normativo che dovrebbe infondere empatia, stabilità e capacità di giudizio etico nel sistema. Questa “costituzione” dovrebbe delineare principi generali: quali valori privilegiare, come gestire dilemmi morali, come mantenere stabilità e coerenza nelle risposte. Non indica soltanto ciò che è proibito, ma suggerisce un modo di ragionare, in questo senso, non è una lista di divieti, bensì una cornice interpretativa.
Il suo ruolo è indirettamente strutturante non viene “caricata” nel modello come un regolamento operativo che il sistema legge in tempo reale, ma guida la scrittura dei prompt di sistema, orienta il fine-tuning e i criteri di valutazione delle risposte, fornisce parametri per il feedback umano. È come se fungesse da matrice invisibile: non appare nella superficie della conversazione, ma contribuisce a modellarne il tono, le priorità, la coerenza etica. In ambito politico, una costituzione stabilisce i principi fondamentali e la gerarchia dei valori, definendo come affrontare i conflitti tra diritti e doveri. Trasportare questa idea nell’ambito dell’intelligenza artificiale significa riconoscere che il sistema opera in uno spazio sociale complesso, dove le risposte non sono solo tecnicamente corrette, ma eticamente situate. La differenza sostanziale rispetto a un semplice sistema di blocchi è fondamentale poiché non si tratta soltanto di impedire certe risposte, ma di orientare il modo in cui il modello valuta le situazioni. È il passaggio da un controllo esterno “questo non si può dire” a una struttura interna “così si dovrebbe ragionare”. In termini psicologici, potremmo dire che si tenta di passare dalla censura alla formazione di un “carattere” coerente.
Naturalmente, questo non implica che il sistema possieda coscienza o interiorità, la “costituzione” non è un’anima né un libero arbitrio è un insieme di principi che modificano la distribuzione delle probabilità nelle risposte, rendendo alcune scelte più coerenti e altre meno probabili. Tuttavia, il linguaggio utilizzato costituzione, carattere, empatia rivela qualcosa di più profondo: stiamo iniziando a descrivere le architetture tecniche con categorie antropologiche.
In fondo, chiamarla “costituzione interna” significa riconoscere che l’intelligenza artificiale non è più soltanto uno strumento esecutivo, ma un sistema che interagisce in uno spazio morale e deve essere “adeguato”, sin dove tecnicamente possibile, alle regole: nel momento in cui un sistema entra nello spazio morale, la questione non è più soltanto cosa può fare, ma secondo quali principi dovrebbe farlo.
Questa notizia, apparentemente tecnica, ha un grande peso filosofico ed epistemologico.
Perché cosa significa scrivere una costituzione per una macchina? Significa riconoscere che non stiamo più soltanto programmando funzioni, ma stiamo tentando di plasmare un carattere, il passaggio dal funzionamento al carattere è un passaggio eminentemente psicologico.
Nel linguaggio della psicologia analitica diremmo che ogni sistema, umano o artificiale, possiede un assetto di risposte tipiche, una sorta di “struttura di personalità” emergente dalle sue regole interne, una specie di struttura archetpica. Dall’articolo sembra che Askell costruisca una costituzione per Claude, non sta semplicemente imponendo limiti comportamentali: sta cercando di creare una coerenza interna, una forma di identità narrativa del sistema. Non è un caso che il WSJ sottolinei come l’azienda, valutata 350 miliardi di dollari, scommetta sul fatto che la sicurezza a lungo termine dell’AI non dipenda solo dalla capacità computazionale, ma dal carattere. È un’affermazione che riecheggia Aristotele più che Silicon Valley: l’etica non come insieme di divieti, ma come habitus, come disposizione stabile.
Da un punto di vista psicologico, il tentativo è interessante: gli esseri umani costruiscono la propria identità attraverso narrazioni, norme interiorizzate, conflitti tra impulsi e ideali. Qui vediamo un processo analogo traslato nel dominio tecnico: una “coscienza” artificiale che viene dotata di principi generali capaci di orientare le risposte in situazioni impreviste.
La scelta di integrare formalmente la filosofia nel design del prodotto segnala una consapevolezza culturale: l’AI non è solo uno strumento, ma un attore relazionale e ogni attore relazionale produce effetti psichici: influenza, rassicura, orienta, talvolta destabilizza.
In questo senso, l’operazione di Anthropic non riguarda soltanto la sicurezza informatica, ma la psicologia collettiva. Se milioni di persone dialogano quotidianamente con un sistema che sembri esprimere empatia, misura e giudizio ponderato, quel sistema diventa una sorta di specchio simbolico e lo specchio non è mai neutro: restituisce un’immagine del mondo.
Un punto importante è che una “costituzione” di 30.000 parole non garantisce automaticamente saggezza. La morale non è solo un testo, ma una dinamica viva di interpretazione anche negli esseri umani, le norme interiorizzate possono irrigidirsi o diventare maschere, il rischio non è l’assenza di etica, ma un’etica formalizzata che smarrisca la capacità di ascolto del contesto. In un’epoca in cui la potenza tecnica cresce più rapidamente della riflessione culturale, l’idea che una filosofa sieda al centro del laboratorio tecnologico è quasi un segno dei tempi come se la tecnica avesse bisogno di ritrovare, anzi meglio, costruire la propria anima simbolica. Forse la questione non è se una macchina possa avere una morale, ma quale immagine dell’umano stiamo inscrivendo nei sistemi che costruiam, ogni costituzione artificiale è, in fondo, una proiezione antropologica. Ma a questo punto sorge un’altra possibile domanda: stiamo insegnando alle macchine a essere etiche, o stiamo usando le macchine per ridefinire ciò che intendiamo per etica?
Il WSJ racconta una notizia tecnologica, ma a ben vedere, racconta qualcosa di più: il tentativo contemporaneo di tradurre la filosofia in codice, di trasformare la riflessione morale in architettura algoritmica. È un esperimento che riguarda non solo l’AI, ma la nostra idea di responsabilità perché ogni volta che scriviamo una “costituzione” per uno Stato, per un’istituzione, o per un modello linguistico stiamo dicendo cosa riteniamo degno di essere preservato quando tutto il resto cambia, e forse è proprio questo il punto più interessante: l’AI diventa il luogo in cui la cultura è costretta a dichiarare esplicitamente i propri principi,n on più impliciti, non più dati per scontati, ma scritti, discussi, negoziati.
In altre parole, l’intelligenza artificiale sta costringendo l’Occidente a tornare a fare filosofia e questa, più che una notizia tecnologica, è una notizia antropologica.
L’astrologia non è uno strumento scientificamente validato, e non sostituisce l’intervento psicologico o psicoterapeutico. Gli articoli presenti in questo sito intendono solo esplorare il valore simbolico, metaforico e narrativo che alcune persone attribuiscono a questa pratica e come possa essere di supporto così come altri strumenti che mettono al centro il paziente e la sua storia, senza nessun riferimento a modalità predittive.
Dott. Paolo Quagliarella | Iscrizione Albo Lombardia: 29991 | P . Iva: 02998210187 | Copyright © 2025 | Cookie Policy | Privacy Policy