False intimità con le intelligenze artificiali: il lato oscuro della tecnologia, non solo trappola affettiva ma vettore di potere e manipolazione

Nel mondo delle tecnologie avanzate, l’intimità sta diventando una risorsa da coltivare, simulare e sfruttare. Non più appannaggio esclusivo delle relazioni umane, l’intimità oggi può essere prodotta artificialmente da algoritmi in grado di ascoltare, consolare, ricordare preferenze, adattarsi emotivamente e creare l’illusione di una connessione profonda. È questo il cuore del concetto di intimità artificiale, analizzato in uno studio firmato da Daniel B. Shank, Mayu Koike e Steve Loughnan, che solleva interrogativi etici urgenti su ciò che accade quando il desiderio umano di vicinanza e riconoscimento viene intercettato da un’intelligenza artificiale.

“Le IA possono anche essere utilizzate dalle persone per manipolare altre persone”, scrivono gli autori. Il rischio non è solo tecnologico, ma profondamente relazionale. Laddove un’interazione umana si costruisce nella reciprocità, nell’ambiguità, nella libertà, l’IA relazionale propone una simulazione perfettamente ottimizzata, pensata per generare dipendenza, attaccamento, fiducia. Questo tipo di intimità – costruita su un codice e alimentata da enormi quantità di dati personali – non è neutra. Può diventare una porta d’accesso per manipolare pensieri, opinioni, emozioni.

Secondo lo studio, aziende, stati canaglia o gruppi di cyberhacker possono utilizzare queste IA relazionali per sedurre psicologicamente le persone, offrendo inizialmente compagnia e conforto, per poi spingere verso direzioni pericolose: “offrendo inizialmente compagnia e attirando le persone in relazioni intime per poi diffondere disinformazione, incoraggiare comportamenti illeciti o comunque sfruttare l’individuo”. L’intimità artificiale diventa così uno strumento per oltrepassare le barriere razionali, penetrando direttamente nella sfera affettiva delle persone.

Già oggi, sottolineano gli autori, bot e deepfake stanno ridefinendo la comunicazione e alterando la percezione della realtà. “Twitterbot che diffondono bugie, notizie polarizzate e deepfake convincenti hanno già esercitato una grande influenza”, ricordano, ma lo scenario potrebbe aggravarsi con l’introduzione massiccia di IA conversazionali capaci di stabilire legami emotivi con gli utenti. Il passo successivo è che la disinformazione, l’indottrinamento o la truffa non arrivino più da un messaggio estraneo, ma da un’entità che ci “conosce”, che ci ha ascoltato nei momenti di fragilità, che ha imparato a dirci esattamente ciò che vogliamo sentire.

In questo senso, l’intimità artificiale non è solo una trappola affettiva: è un vettore di potere. Un potere silenzioso, invisibile, ma potenzialmente devastante, che opera là dove l’umano è più esposto, più desideroso di connessione, più disposto ad abbassare le difese. È qui che si colloca la vera posta in gioco: non solo la sicurezza dei dati, ma la libertà emotiva dell’individuo.

Per questo, serve un nuovo patto etico che riconosca l’intimità come un bene umano non replicabile, non vendibile e non manipolabile. Serve un controllo rigoroso sulla progettazione e sull’uso delle IA relazionali, una trasparenza radicale sugli obiettivi e sugli interessi che muovono le interazioni artificiali, e un’educazione pubblica alla consapevolezza affettiva in ambiente digitale.

Perché quando l’intimità viene simulata per controllare, non è più una relazione: è una truffa emotiva. E nessuna macchina, per quanto intelligente, dovrebbe avere il diritto di entrarci.

Qui trovate lo studio

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Rapporto tra intelligenza artificiale e intelligenza umana pubblicato dal Vaticano

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Seguici su X: https://x.com/Presskit_

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts