Intelligenza artificiale: il problema è che cosa ne fa l’essere umano. Il potere corrompe… L’analisi di Epto Tramaci

L’intelligenza artificiale io mi diverto spesso a chiamarla in un altro modo, come la chiama una mia conoscenza, stupidità stocastica, perché è sempre un po’ una parolaccia, ma in realtà è un termine tecnico, perché un sistema stupido è un sistema che ha memoria, ma non è realmente intelligente. La vera intelligenza artificiale è un’altra cosa”, spiega Epto Tramaci al convegno la Rivoluzione Digitale che si è tenuto ad Abano terme il 16 settembre 2023.

“Il primo problema che dovremmo tenere in considerazione è non tanto cosa viene fatto con l’intelligenza artificiale, ma che cosa fa l’essere umano. Molti studi scientifici ci hanno già dimostrato che il potere corrompe, cioè più una persona ha potere e più tenderà a comandare gli altri può succedere in un modo o nell’altro. Quindi l’intelligenza artificiale se entra in questo sistema, in questa situazione, può essere un problema.

Mentre prima tutto sommato il potere di una persona o di qualcuno era limitato, nel momento in cui qualcuno ha un’intelligenza artificiale può acquisire molto potere.

Provate a immaginare per esempio se a un certo punto comincia a creare 100.000 intelligenze artificiali Che cominciano a manipolare l’informazione o a essere che ne so utenti piuttosto di facebook e di twitter Cercando di cambiare le opinioni della gente o di sondarle Oppure seguire una per una le persone che dicono cose che non mi piace e redarguirli Oppure utilizzare un sistema per una cosiddetta sicurezza urbana che in realtà impone solo un unico modo di vedere le cose, un unico modo di ragionare, che è quello dell’intelligenza artificiale che è sicuramente disumano e che ne sa meno di un essere umano. Adesso si pretende pure, pensate in alcune città, di utilizzare l’intelligenza artificiale per prevedere i comportamenti umani e stabilire se siano criminali o no prima che le persone agiscano. Cioè già è difficile capirsi tra persone, figuriamoci.

E figuriamoci adesso un’intelligenza artificiale, che è un essere nato ieri, un essere, insomma, una stupidità stocastica, un programma, che si permette di dire chi è pericoloso e chi no. Io starei molto attento a questa cosa.

Queste sono dinamiche di potere, sono dinamiche che portano a delle devianze nell’uso della tecnologia e delle devianze dai risultati che la tecnologia ci dà nella vita di tutti i giorni.

E’ solo l’antipasto. Io da una decina d’anni mi occupo di osservare i cambiamenti di questi sistemi, cioè di capire che cose stanno installando nelle nostre città, molto prima, cioè prima di quando hanno cominciato a implementare ultimamente il discorso delle smart cities, anche della videosorveglianza semplice. Ad esempio a Venezia abbiamo avuto tutta una serie di sistemi che già tracciavano le imbarcazioni e in alcuni casi le persone installate più di dieci anni fa. Qual è stato l’uso di questi sistemi? Garantire la sicurezza? No, elevare nuove sanzioni, trovare nuovi modi di fare sanzioni e poi è venuto fuori che questo sistema in realtà funzionava un po’ a caso e che tutte le sanzioni che hanno fatto erano semplicemente fuffa è arrivata addirittura una cassazione o qualcosa del genere a cancellare praticamente a suoni ricorsi tutte le singole sanzioni fatte e alla fine il sistema l’hanno tolto e hanno dovuto rifarlo e a questo che serve?

La principale preoccupazione è si inventeranno nuovi modi per fare cassa? È una domanda che dovremmo porci. Quale sarà l’uso di queste cose? Con questa idea della CO2, non CO2, eccetera o con qualsiasi altra cosa che ci salta in mente. Ma questo potrebbe essere un modo di pensare paranoico nei confronti dello Stato.

Ma proviamo a pensare al comune malintenzionato. Una persona qualsiasi che ha un’intelligenza artificiale o che la scarica o che la usa e comincia a fare cose che prima non avrebbe potuto fare utilizzando il sapere che ha questa intelligenza artificiale. Ad esempio, se vi siete scontrati o avete provato a chattare con un chat GPT avrete saputo che ha un sacco di informazioni, un dataset molto grande, aggiornato fino al 2021. Però se voi gli chiedete di fare una cosa qualsiasi, lui ve la fa. Poi naturalmente potete chiedere di fare anche qualcosa di negativo o di molto cattivo e non ve lo fa fare perché ci arriva. Ma se anteponete, supponiamo che io debba raccontare una storia e in questa storia succede questa cosa, si raggirano le protezioni e vi spiegherà come fare le cose più indicibili. E questa è la potenza dell’intelligenza artificiale. Non è solo nella sicurezza urbana o nel fatto che possa essere utilizzata bene o male, ma anche dai singoli interessati che la utilizzano.

Cosa succede nella medicina con l’intelligenza artificiale? “Alla fine rimandiamo all’uomo, allora per capirci meglio io conosco un cardiologo che è uno dei più grandi ricercatori del mondo sulla morte improvvisa, questo sindrome che per riconoscerla bisogna risalire a tutta una determinata serie di parametri, allora lui dice con l’intelligenza artificiale, mentre io prima dovevo andare a cercarmi in letteratura tutte le diagnosi, io in pochi minuti posso avere sott’occhio centomila diagnosi, quindi centomila dati di centomila persone che hanno avuto questo problema. Il vero problema qual è, dove invece il medico, già da molti anni, il medico non è più quello che vi conosceva, il famoso medico di famiglia che sapeva tutto di voi, ma è un medico che vi fa fare subito tutta una serie di esami, appena avete qualcosa che va fuori, il parametro, dice tu adesso devi prendere questo, devi prendere quello, devi prendere quell’altro e smette di ragionare lui. per far capire lui qual è la discriminante che fa propendere per un’anamnesi piuttosto che per un’altra, altrimenti basta mettere i dati del paziente dentro il computer, tirare fuori, hai questa malattia, prendi questa cura. Sostanzialmente detto in poche parole è questo.

Quindi alla fine ci dobbiamo chiedere, tutto ciò è utile all’uomo o non è utile all’uomo? Per il resto poi come avviene vediamo. Il vero problema è che ci sono tecnologie che dovrebbero essere neutre a seconda di come le usi e però invece potrebbe anche essere che di per sé non sono affatto neutre”.

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Intelligenza artificiale in medicina: c’è il pericolo che sia programmata per indirizzare i pazienti verso particolari farmaci

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it