Gli algoritmi imparano i nostri gusti, i nostri orientamenti e, soprattutto, le nostre fragilità. E li usano.

Nel silenzio quotidiano dello scorrere dei pollici sugli schermi, si sta consumando una trasformazione radicale che ha ridefinito il nostro rapporto con la realtà, con gli altri e con noi stessi. Gli smartphone e i social network, in appena vent’anni, hanno installato nel cuore della società un meccanismo invisibile ma potentissimo: l’algoritmo. Non è una semplice formula matematica. È un sistema capace di osservare, registrare e soprattutto imparare. Impara i nostri gusti, i nostri orientamenti, ma più di ogni altra cosa, le nostre fragilità. E le usa.

Ogni clic, ogni like, ogni video guardato fino alla fine, ogni articolo abbandonato dopo tre righe: tutto viene raccolto, scomposto e analizzato. Da questi frammenti nasce un profilo, spesso più preciso di quanto noi stessi riusciamo a immaginare. Gli algoritmi non si limitano a restituirci ciò che ci piace. Capiscono cosa ci fa reagire, cosa ci smuove emotivamente, cosa ci ferisce o ci fa sentire soli. E proprio lì affondano le radici di un potere sottile: sanno dove colpire per catturare l’attenzione, per tenerci incollati allo schermo.

Non è complotto. È strategia. Le piattaforme digitali vivono del nostro tempo di permanenza, del nostro coinvolgimento emotivo. E l’indignazione, la paura, il sospetto, l’ansia funzionano meglio della verità, della noia o del silenzio. Così, i contenuti che ci appaiono sono modellati non per informarci, ma per tenerci agganciati. E per farlo, gli algoritmi non esitano a solleticare le nostre insicurezze, a confermare le nostre idee preconcette, a rinforzare i nostri pregiudizi.

È in questo modo che nascono le bolle informative. Ogni utente riceve una versione del mondo coerente con il proprio profilo psicologico e ideologico. Ma non è una finestra sulla realtà: è uno specchio. E chi vive in uno specchio non incontra mai il volto dell’altro. Il dissenso diventa minaccia, la complessità si semplifica fino al fanatismo, la discussione si trasforma in conflitto. La radicalizzazione non è un effetto collaterale: è un prodotto funzionale.

Dietro ogni suggerimento di contenuto, dietro ogni video che parte in automatico, c’è un processo che conosce e sfrutta la parte più vulnerabile della nostra psiche. Non lo fa con intenzione morale, ma con finalità commerciale. Eppure, l’effetto sociale è profondo. Quando una tecnologia inizia a orientare pensieri, emozioni e comportamenti, il confine tra libertà e condizionamento si fa sottile. Chi controlla l’algoritmo, controlla in parte anche la visione del mondo che milioni di persone si costruiscono ogni giorno.

La vera sfida non è demonizzare gli strumenti, ma prenderne coscienza. L’algoritmo non è neutrale. Non è oggettivo. È progettato per agire e reagire a ciò che siamo, spesso alla parte più fragile e nascosta. Per questo va governato, regolato, interrogato. Perché una società che affida a un sistema automatico la propria informazione, il proprio dibattito pubblico, perfino la propria identità, rischia di smarrire il senso critico, il dissenso autentico, la possibilità stessa di cambiamento.

Non siamo consumatori passivi di tecnologia. Siamo cittadini. E in quanto tali abbiamo il diritto – e il dovere – di pretendere trasparenza, responsabilità e rispetto. Perché se lasciamo che siano gli algoritmi a decidere chi siamo, non ci rimarrà che recitare la parte che ci è stata assegnata.

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Donne, uomini e algoritmi: quando l’intelligenza artificiale replica i nostri pregiudizi

Per non dimenticare: Con dati e algoritmi il Regno Unito sta creando uno strumento di “previsione degli omicidi” per identificare le persone, secondo loro, a rischio di commettere violenza

Può interessarti anche: L’efficenza generata algoritmicamente sta disumanizzando e demoralizzando coloro che vi interagiscono, Thomas Harrington

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Seguici su X: https://x.com/Presskit_

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts