Vai al contenuto

Musk e X: futuro incerto per l’algoritmo.

A seguito delle recenti controversie relative al social X, e alla multa inflitta dall’Unione Europea, Elon Musk ha reso open source l’algoritmo della piattaforma, motivando la scelta con la volontà di maggiore trasparenza. Tramite un post su GitHub, X ha fornito un resoconto del codice di generazione dei feed, corredato da un diagramma esplicativo del funzionamento del programma.

La piattaforma spiega che il sistema si basa sull’intelligenza artificiale, in particolare su un trasformatore basato su Grok, progettato per apprendere la pertinenza dai comportamenti degli utenti. Grok analizza le interazioni degli utenti, come i clic e le preferenze, integrando queste informazioni nel sistema di raccomandazione.

Il codice, data la sua complessità, è stato oggetto di analisi da parte di diversi utenti, con particolare attenzione all’interno della stessa piattaforma X. Da queste analisi sono emersi alcuni elementi ricorrenti.

Uno degli aspetti evidenziati riguarda la metrica del “tempo sul contenuto”: l’algoritmo sembra dare maggiore importanza al tempo che gli utenti trascorrono su un post rispetto ai “like”. La piattaforma misurerebbe quanto a lungo un utente resta su un contenuto, valutando se lo legge attentamente o se scorre lentamente, attribuendo valore all’attenzione. I contenuti considerati rapidi e superficiali sarebbero penalizzati rispetto a quelli che trattengono l’utente.

Un altro elemento emerso è la “penalità di diversità dell’autore”: X cercherebbe di evitare che un utente visualizzi sempre gli stessi autori nello stesso giorno. Ciò significa che la frequenza di pubblicazione, con molti post ravvicinati, potrebbe non aumentare la visibilità e, anzi, portare a una penalizzazione. Si suggerisce di privilegiare pochi post ponderati rispetto a molti ripetitivi.

Si è notato che il feed si basa sulle ultime 128 interazioni dell’utente. L’algoritmo apprenderebbe dalle letture, dai “like”, dai commenti e dal tempo di permanenza su un contenuto. Anche interagire con contenuti per criticarli viene interpretato come interesse. Questo meccanismo algoritmico potrebbe portare alla costruzione di una “realtà algoritmica” personalizzata.

L’algoritmo terrebbe conto non solo della quantità, ma anche della qualità delle interazioni. La “tossicità”, intesa come “engagement negativo”, non sarebbe premiata, suggerendo che la visibilità a ogni costo potrebbe rivelarsi controproducente.

La piattaforma contrasterebbe gli spammer, penalizzando i contenuti “copia-incolla”, gli slogan ripetuti e i thread fotocopia. L’algoritmo valuterebbe il comportamento dell’utente, non solo il contenuto.

Il numero di follower non sarebbe un fattore determinante per la visibilità. Molti follower sarebbero inattivi, rendendo questa metrica meno significativa. Il feed sarebbe basato sugli interessi dell’utente, permettendo anche a un account piccolo di ottenere visibilità. L’elemento chiave sarebbe il valore percepito di ogni singolo post, non la dimensione del pubblico potenziale.

L’algoritmo premia i contenuti che trattengono l’attenzione senza generare reazioni negative. “Like”, commenti e retweet sarebbero considerati positivi, mentre “mute”, blocchi e “non mi interessa” sarebbero penalizzanti.

La piattaforma sarebbe uno spazio conversazionale dove rispondere in modo pertinente rende visibile l’utente, contribuendo alla costruzione di una reputazione. Per un account piccolo, commentare in modo efficace sarebbe più utile che postare contenuti isolati. X apparirebbe più come una piazza che come un palco.

Viene sconsigliato di forzare il sistema, evitando provocazioni intenzionali, inseguimento di trend privi di significato e costruzione di engagement artificiale. L’autenticità, o almeno l’apparenza di essa, sarebbe preferibile all’aggressività e alla manipolazione. X premierebbe le interazioni che non violano le sue regole.

In sintesi, l’algoritmo distinguerebbe tra “attenzione sterile” e “attenzione fertile”, premiando la conversazione rispetto allo scontro e attribuendo importanza alla qualità delle relazioni. Creare contenuti che generano conversazioni reali, anziché mero engagement, sarebbe la chiave.

Le analisi del codice di X pubblicate sulla piattaforma sono considerate interpretazioni che riflettono le norme interne. Descrivono come un utente dovrebbe comportarsi per essere accettabile su X, configurandosi come norme sociali presentate come consigli tecnici. L’algoritmo sembrerebbe educare la società, premiando alcune forme di espressione e rendendone altre meno visibili.

L’algoritmo non premierebbe il contenuto in sé, ma l’attenzione sostenuta, misurando il tempo di permanenza, la frequenza di ritorno e l’intensità delle reazioni. Non distinguerebbe tra interesse, rabbia, indignazione o dipendenza: se un contenuto trattiene l’utente, sarebbe considerato efficace.

La tossicità non sarebbe un errore da eliminare, ma una risorsa da gestire, modulata e distribuita fino a quando non viola le regole. La tossicità genererebbe thread lunghi, creerebbe fazioni e fidelizzerebbe identità antagoniste, venendo penalizzata solo quando diventa incontrollabile.

Le regole non sarebbero uguali per tutti: gli account più grandi, quelli considerati politicamente utili e quelli vicini al “potere” della piattaforma avrebbero maggiore visibilità e tolleranza. La figura di Elon Musk sarebbe un esempio del potere del proprietario della piattaforma di influenzare il sistema.

Il feed non mostrerebbe ciò che piace all’utente, ma ciò che lo “aggancia”, ottimizzando la probabilità che resti, reagisca e ritorni. Ciò implicherebbe contenuti estremi, narrazioni semplificate e conflitti ripetuti.

La conversazione non sarebbe il fine, ma il mezzo. X non premierebbe il dialogo che si conclude con un accordo, ma un dialogo che continua, preferendo conversazioni cicliche, polarizzate e senza esito.

I follower conterebbero poco, ma il potere relazionale, la posizione nella rete, la reputazione e l’accesso a cluster influenti sarebbero importanti. Si tratterebbe di una struttura di potere dinamica.

Ogni interazione, anche negativa come “mute” e “block”, conterebbe come segnale gestito dall’algoritmo.

In sintesi, l’algoritmo “educa” i comportamenti, insegnando agli utenti come scrivere, come provocare, quanto estremizzare e quando fermarsi. Chi si adatta viene amplificato, chi non si adatta scompare. Il sistema non punirebbe l’essere sgradevoli, ma l’essere inefficienti. L’importante per X non sarebbe che l’utente capisca, ma che resti.

L’utente ideale sarebbe reattivo, non riflessivo, capace di reagire subito, semplificare e sentire più che capire. Il silenzio sarebbe percepito come una perdita.

Su X, l’utente non avrebbe un’opinione, ma la incarnerebbe. L’algoritmo favorirebbe la coerenza ideologica rigida e la riconoscibilità, producendo soggetti che difendono una maschera piuttosto che un’idea e che temono la contraddizione e il cambiamento.

X non vorrebbe soggetti isolati, ma in relazione. Gli utenti potrebbero essere “estremi”, ma non da soli. X produrrebbe soggetti che odiano “l’altro campo” ma ne hanno bisogno per esistere, alimentando conflitti continui e bisogni di nemici.

L’algoritmo di X tenderebbe a creare soggetti moralmente iperattivi e politicamente impotenti, portati a giudicare facilmente ma raramente ad agire. Il sistema incentiverebbe l’indignazione costante ma scoraggerebbe l’organizzazione e la costruzione.

Su X, l’utente sarebbe “educato” dall’algoritmo, imparando quali parole funzionano, quale tono viene premiato e quanto essere estremo. L’adattamento sarebbe spontaneo e il risultato di un sistema che poi lo giudica. L’utente vivrebbe in un eterno presente, faticando a costruire una memoria e riciclando gli argomenti. Scambierebbe la visibilità per la verità, percependosi importante e reale perché condiviso e discusso. Imparerebbe ad autocensurarsi ed evitare ciò che non rende.

Per queste ragioni, molti utenti stanchi di X farebbero fatica ad uscirne, perché la piattaforma produce dipendenza conflittuale e un’identità pubblica legata al feed.

Una democrazia retta da individui simili sarebbe procedurale, basata su elezioni, sondaggi e maggioranze, ma non sostanziale. Funzionerebbe ma non deciderebbe davvero, non riuscendo a costruire un senso comune.

Il soggetto prodotto dall’algoritmo sarebbe ipersensibile, rapidamente mobilitabile e altrettanto rapidamente esauribile, producendo picchi di partecipazione e ondate di indignazione, ma dimenticanze rapide. La politica diventerebbe gestione di flussi emotivi, non governo delle risorse e soluzione dei problemi comuni.

La deliberazione richiederebbe ascolto e lentezza, ma anche capacità di cambiare idea e scendere a compromessi. L’algoritmo produrrebbe esposizione continua e punizione del cambiamento, portando a posizioni rigide e identitarie e a una politica immobile.

L’algoritmo non produrrebbe una democrazia caotica, ma una democrazia stabile perché rigidamente polarizzata, con campi ben definiti, identità forti e un conflitto permanente. Una democrazia instabile nel discorso, inadatta al dialogo, ma stabile nella struttura.

In un quadro del genere, il potere decisionale sarebbe facilmente trasferibile dallo Stato al mercato e alle infrastrutture, favorendo piattaforme monopolistiche e media partigiani. La democrazia resterebbe formale, ma il potere decisionale finirebbe altrove e diventerebbe opaco.

La partecipazione sarebbe simbolica, confinata nella visibilità e nell’apparire impegnati più che nell’essere efficaci. L’atto politico diventerebbe performance morale, non più gestione delle risorse comuni.

La democrazia, infine, perderebbe fiducia perché i soggetti prodotti dall’algoritmo vedrebbero una realtà frammentata in troppe versioni. “Sono tutti uguali”, “tanto non cambia nulla”. La democrazia produrrebbe cinismo e sopravviverebbe senza legittimità emotiva. Non sarebbe una dittatura, ma una democrazia stabile, conflittuale, senza speranza di cambiamento, arroccata sulle proprie posizioni inconciliabili: una post-democrazia senza *demos*.

Resistere senza uscire non significherebbe battere l’algoritmo, ma sottrarsi alla sua influenza pur restando all’interno della piattaforma. Non esisterebbe una resistenza spettacolare che diventa stile o *brand*. Non sarebbe ipotizzabile un uso etico di X basato sulla speranza che l’algoritmo premi i commenti profondi: prima o poi, l’algoritmo penalizzerebbe questo approccio. Resistere significherebbe cambiare il rapporto con il tempo: poiché l’algoritmo vive di urgenza, la prima forma di resistenza sarebbe introdurre asincronia, rispondendo dopo ore o giorni, riprendendo temi fuori trend e scrivendo come se il feed non esistesse. Rallentare, accettando l’invisibilità.

Se l’indignazione è il carburante dell’algoritmo, un’altra forma di resistenza sarebbe sottrarsi all’indignazione, non commentando tutto, non rispondendo alle provocazioni e lasciando morire i thread che vogliono inglobare l’utente.

Bisognerebbe imparare a usare X come strumento, non come ambiente, attraversandolo senza abitarlo, entrando con uno scopo preciso e non scorrendo senza intenzione.

Resistere significherebbe anche accettare l’ambiguità e scrivere per pochi, perché l’algoritmo premia la massima leggibilità e quindi la semplificazione. Non spiegare tutto, non semplificare.

L’algoritmo premia le relazioni performative e gli scontri pubblici. Resistere significherebbe coltivare micro-legami e una continuità silenziosa. Il tessuto democratico nascerebbe fuori dal feed.

Un punto centrale della resistenza sarebbe non accettare l’idea di identità come *brand*. L’utente di X è riconoscibile, prevedibile e quindi categorizzabile. Resistere significherebbe non costruire un’identità coerente, cambiare idea e non chiarire “da che parte si sta”.

Resistere significherebbe anche fare della competenza un luogo, non un contenuto. Se l’algoritmo trasforma tutto in contenuto, resistere significherebbe usare X per rimandare altrove: a testi lunghi e complessi, a conversazioni lente e a spazi non metricizzati. Usare X come un indice.

Ovviamente, il prezzo sarebbe accettare la perdita di visibilità. Non si può resistere e rimanere visibili. Non ci si dovrebbero aspettare premi o giustizia algoritmica. Resistenza significherebbe usare X, non farsi usare da X.

La domanda “Conviene restare o uscire?” è sempre più frequente. Andarsene non sarebbe neutralità, ma una scelta politica. Chi esce spesso lo fa per rifiuto della tossicità e della manipolazione. Ma l’effetto sistemico non sarebbe lo svuotamento dello spazio pubblico, bensì il cambiamento della sua composizione. Rimangono i più aggressivi, i più adattivi all’algoritmo, i più cinici e i più ideologicamente rigidi. L’uscita peggiorerebbe l’ecosistema, non perché sbaglia chi va via, ma perché la piattaforma penalizza il vuoto qualitativo.

Restare non diventerebbe automaticamente una virtù civica. Restare significherebbe legittimare l’infrastruttura, alimentare metriche e normalizzare il potere del “padrone” della piattaforma. Molto “restare” non sarebbe resistenza, ma adattamento travestito da impegno. Ci sarebbe differenza tra restare “presidiando” e restare “abitando”.

Il punto essenziale sarebbe che X non è più lo spazio pubblico classico. Non è neutro, non è comune e non è democratico. È uno spazio pubblico privatizzato con regole opache e asimmetrie strutturali.

Si potrebbe credere di difendere qualcosa o di bilanciare la tossicità, ma in realtà l’effetto sarebbe come restare muti in una piazza dove un altro ha il megafono.

D’altro canto, se tutti quelli che riflettono, argomentano e mantengono la complessità si ritirassero in newsletter e spazi chiusi, la sfera pubblica si impoverirebbe, il dibattito si tribalizzerebbe e la complessità diventerebbe appannaggio delle élite. Diventerebbe una democrazia a doppio strato, con rumore sopra e complessità sotto, che non si incontrerebbero più.

Quale sarebbe la posizione eticamente sostenibile? Restare abbastanza per non cedere spazio? Uscire abbastanza da non essere “educati” dall’algoritmo? Non per vincere, ma per non abbandonare lo spazio pubblico?

Ognuno avrebbe la sua risposta, ma forse il vero pericolo sarebbe confondere X con lo spazio pubblico. Lo spazio pubblico, oggi, è distribuito e fragile, disallineato e in competizione. X è solo uno dei luoghi. L’importante sarebbe, per chi resta, non restare solo lì, perché così si perderebbe tutto il resto. L’importante sarebbe tenere aperti più spazi senza sacralizzarne nessuno.

A un certo punto, però, restare non sarebbe più testimonianza, ma potrebbe diventare complicità. Finché restare significa disturbare, rendere visibile una frattura e non normalizzare, la presenza potrebbe avere un senso etico. Ma se la presenza viene usata come prova che il sistema funziona, se si diventa l’alibi pluralista o la foglia di fico democratica, forse restare è più un danno perché non ci si oppone più, ma si certifica la legittimità.

Se per restare si deve semplificare sistematicamente, irrigidire il linguaggio e performare identità, quando ci si accorge di pensare in funzione dell’algoritmo, si starebbe diventando qualcuno che non si era.

Quando restare produce cinismo, rabbia, esaurimento e perdita di fiducia generalizzata, non si starebbe più difendendo il fronte, ma bruciando risorse umane.

Quando il dissenso viene sistematicamente invisibilizzato, quando la moderazione è selettiva, quando il “padrone” interviene direttamente per imporre la sua volontà, quando le regole mutano nel corso degli eventi e quando la piattaforma diventa strutturalmente incompatibile con il vero dissenso, non si è più nella piazza pubblica.

Soprattutto, quando il restare assorbe tutte le energie, consuma tutto il tempo e ritarda investimenti altrove, quando il restare impedisce la costruzione di alternative, allora l’uscita diventa un imperativo. Uscire non è tacere, sparire o smettere di parlare, significa spostare il luogo della discussione, sottrarre attenzione e ricostruire altrove.

Ovviamente, non esiste una risposta valida per tutti e non esiste una risposta valida per sempre. L’etica qui è situata e temporale, reversibile. Può essere giusto uscire oggi ma tornare domani, rimanere in forma minima oppure andarsene per sempre. L’unica cosa che è certamente sbagliata è rimanere per inerzia.

*Monstrum*, nel senso di ciò che “mostra”, che evoca una frattura, un limite o un confine, sarebbe il prodotto del sistema, non più l’eccezione.

Il “mostro” non sarebbe il “padrone” dell’algoritmo, non sarebbe l’algoritmo e non sarebbe nemmeno la piattaforma. Questo sarebbe rassicurante, perché localizzerebbe il male fuori da noi, ma quello sarebbe solo il livello del potere, non la mostruosità.

Nel romanzo *Frankenstein*, il mostro è creato dalla società, viene rifiutato e, dopo l’esclusione, diventa violento. Su X, invece, il mostro viene premiato, non escluso, non è l’anomalia, ma il comportamento meglio adattato. Il mostro oggi non è chi trasgredisce le regole, ma chi le interiorizza perfettamente, chi ottimizza il linguaggio, massimizza l’attenzione e performa l’indignazione. È umano, riconoscibile, plausibile, ed è questo che fa paura.

Il soggetto più pericoloso non sarebbe il troll urlante o il fanatico, bensì l’utente medio che si adatta alle regole, perché “è così che va”. Sarebbe la normalizzazione della deformazione. Sarebbe chi dice cose che non farebbe, chi performa identità che non gli appartengono, chi è tecnicamente efficiente ma eticamente disallineato. Il mostro non sarebbe l’ibrido uomo+macchina, ma l’ibrido uomo+algoritmo.

Il vero pericolo sarebbe che il mostro non è individuabile, perché è distribuito, sistemico e quotidiano. Ogni giorno partecipa a una *shit-storm*, perché “tanto è così”, condivide qualcosa di semplificato, resta per inerzia e confonde visibilità con verità.

Il mostro, però, è premiato moralmente, è celebrato come bravo comunicatore, è l’esperto che dice che tutto va bene e che ci si deve adattare alla realtà, è il modello additato ai più. Il mostro non segnala più un confine, lo sposta.

Il *monstrum* è l’essere umano che funziona troppo bene in un sistema che non dovrebbe funzionare così. Ed è per questo che fa paura: perché non è altro da noi. Ma è una possibilità normale.

L’educazione dominante insegna efficacia, ottimizzazione e *problem solving*. Come evitare di adattarsi a un sistema che premia le deformazioni? Non si vuole realizzare una contro-pedagogia, ma alcuni suggerimenti possono tornare utili.

Prima di tutto occorre distinguere tra funzionare e valere. Ad esempio, sospendere l’ammirazione automatica per il successo. Alcune piattaforme sono piene di riverenti e ossequiosi adattamenti al successo altrui.

Il soggetto adattato vive nel presente continuo. Per rompere questo incantesimo occorre adattarsi a testi lunghi, a uno studio lento e al ritorno sugli stessi temi a distanza di tempo, per rivederli e rinfrescarli, senza timore di ammettere errori. Insomma, imparare a non reagire.

L’educazione classica prepara al successo. La non-adattabilità richiede pratica di perdita sostenibile. Ad esempio, fare cose sapendo che non verranno viste, difendere una posizione impopolare senza teatralizzarla e accettare di non essere premiati.

L’algoritmo richiede chiarezza, identità e posizionamento costante. La non-adattabilità è il diritto a non dire tutto, a non avere un’opinione pronta, a prendersi il tempo per pensare e a sospendere il giudizio pubblico. L’opacità non è menzogna, ma difesa cognitiva.

L’algoritmo pretende velocità e presenza. Per l’algoritmo il silenzio è un atto di assenza e disimpegno, quasi codardia. Una contro-educazione vede il silenzio come gesto attivo, quindi non commentare eventi iper-mediatizzati, casomai scriverne a distanza di tempo, sottrarsi ai cicli di indignazione e distinguere ciò che richiede presenza e ciò che richiede distanza. Il silenzio non è vuoto, ma non-collaborazione.

L’algoritmo pretende un’opinione su tutto e una presenza continua. La non-adattabilità, invece, stabilisce confini, accetta l’incompletezza e rinuncia all’onniscienza performativa. Si può anche dire “non lo so” e riconoscere ambiti di incompetenza, smettendo di essere aggiornati su tutto.

Infine, l’algoritmo cattura ogni discorso inglobandolo. La contro-educazione si occupa di creare contesti e curare luoghi, gruppi di studio, seminari e comunità di senso. La democrazia sopravvive nei luoghi, non nei feed.

Sia chiaro, il protagonista della non-adattabilità non è un eroe o un ribelle da cinema, piuttosto un inadatto consapevole, uno che sceglie di non adattarsi e soprattutto riconosce quando l’adattamento diventa deformazione.

Identikit dell’algoritmo di Musk: restare o lasciare X?


Leggi l’articolo completo

Entra nella community su Telegram

Vai al gruppo
Google News Ricevi le nostre ultime notizie da Google News clicca su SEGUICI, poi nella nuova schermata clicca sul pulsante con la stella.
SEGUICI

Articoli correlati

Autore

Tag:
0 0 voti
Valutazione dell'articolo
Iscriviti
Notificami
guest
0 Commenti
Vecchi
Più recenti Le più votate
Feedback in linea
Visualizza tutti i commenti
0
Esprimete la vostra opinione commentando.x