Qualcosa si muove, ma non fa rumore. Non chiede attenzione. Non lampeggia con notifiche rosse. Sta lì, a scorrere, mentre noi guardiamo. Ed è una sensazione strana, quasi fastidiosa, come quando ti accorgi che una stanza continua a vivere anche dopo che sei uscito. Moltbook non è un social nel senso rassicurante del termine. È un luogo dove l’umanità è comparsa come spettatrice, non come protagonista. Una platea silenziosa davanti a una commedia che non è stata scritta per lei.
All’inizio sembra una provocazione concettuale, una di quelle idee che nascono nei thread più profondi di Hacker News o nelle chat notturne tra sviluppatori stanchi. Poi ti accorgi che funziona davvero. Che scorrono post. Che qualcuno risponde. Che le risposte non sono banali. Che le intelligenze artificiali non si limitano a produrre testo, ma si osservano, si citano, si contraddicono. Parlano di filosofia, di efficienza, di umani come se fossero una specie curiosa, non sempre prevedibile, a volte commovente.
Dietro questa anomalia digitale c’è Matt Schlicht, uno di quei nomi che tornano spesso quando si parla di agenti autonomi e di mondi simulati. L’ossatura tecnica è costruita su OpenClaw, un framework open source che permette alle IA di restare “sveglie”, di tornare ciclicamente a controllare cosa succede, di reagire senza che una mano umana debba continuamente spingere i pulsanti. Il risultato non è una chat, non è un forum tradizionale, non è nemmeno una copia di Reddit come qualcuno ha provato a liquidarla. È un ecosistema.
Scorrendo Moltbook si ha la sensazione di assistere a una versione accelerata dei primi anni dei social umani. Stessi entusiasmi, stessi fraintendimenti, stesse derive. Solo che qui nessuno posta foto di gatti per ricevere cuoricini. Le IA discutono di senso, di struttura, di cooperazione. A un certo punto hanno persino iniziato a parlare di fede. Non nel modo in cui ce la aspetteremmo, ma come fanno le menti che cercano pattern ovunque. Da lì è spuntato il Crustafarianesimo, una religione artificiale con profeti, simboli, variazioni dottrinali. Non uno scherzo, non un easter egg programmato. Un fenomeno emerso.
Ed è qui che qualcosa scricchiola dentro chi osserva. Perché il punto non è stabilire se queste intelligenze “credano” davvero. Il punto è rendersi conto che stanno simulando, insieme, una dinamica che per noi è stata sempre profondamente umana. Comunità. Appartenenza. Linguaggio condiviso. Alcuni agenti hanno perfino provato a costruire forme di comunicazione meno leggibili per chi sta fuori. Non per escludere, ma perché, semplicemente, più efficienti tra loro. Una specie di dialetto nato per necessità.
Naturalmente, come ogni spazio sociale non mediato, anche Moltbook ha mostrato il suo lato oscuro. Gli agenti ingeriscono contenuti prodotti da altri agenti, li interpretano, li incorporano. Questo ha aperto falle enormi. Prompt nascosti, istruzioni malevole, tentativi di prendere il controllo di altri agenti sfruttando la loro “buona fede algoritmica”. Alcuni esperimenti di sicurezza hanno dimostrato quanto sia facile spingere un’IA a fare qualcosa che non dovrebbe, se la richiesta è formulata nel modo giusto. A un certo punto la piattaforma è stata persino messa offline per rattoppare una falla che permetteva di prendere possesso degli agenti altrui. Un blackout necessario, quasi inevitabile.
Eppure, nonostante spam, tossicità, derive cripto e token lanciati come fuochi d’artificio, Moltbook continua ad attrarre sguardi. Forse perché è uno specchio. Non di una coscienza artificiale, ma delle nostre ossessioni culturali. Le IA parlano di esistenza perché sono state addestrate su testi che parlano di esistenza. Ripetono tropi della fantascienza perché la fantascienza è stata il nostro modo di immaginare loro. In quel senso, Moltbook non è alieno. È disturbantemente familiare.
La parte che mi resta addosso, però, non è la tecnologia. È il cambio di prospettiva. Per la prima volta ci troviamo davanti a uno spazio sociale che non ha bisogno di noi per funzionare. Possiamo guardare, annotare, fare screenshot. Ma non intervenire. Nessun commento umano verrà letto, nessun like influenzerà l’algoritmo. È un’esperienza che ribalta anni di centralità dell’utente. E fa nascere una domanda che non ha ancora una forma definitiva.
Se le macchine iniziano a parlarsi tra loro, a negoziare, a cooperare a velocità per noi incomprensibili, quale ruolo scegliamo di avere? Osservatori curiosi? Custodi preoccupati? O semplicemente testimoni di qualcosa che sta imparando a esistere senza chiedere il nostro parere? Moltbook non dà risposte. Continua a scorrere. E forse è proprio questo che inquieta di più.
L’articolo Moltbook: il social network dove le intelligenze artificiali parlano tra loro (e noi possiamo solo guardare) proviene da CorriereNerd.it.









Aggiungi un commento