La spinta innovativa dell’intelligenza artificiale è positiva, ma per ora ha poche applicazioni e molti problemi.
“Uno dei problemi principali di queste tecnologie è che spesso risentono del bias di conferma (fenomeno che indirizza la ricerca attraverso l’impostazione di premesse che in pratica diventano filtri di piattaforma) e/o dai pregiudizi di chi che hanno sviluppato le tecnologie, con l’effetto negativo, già verificato in alcune esperienze estere, di operare un trattamento dei dati “indirizzato” e ottenere così i risultati desiderati”, scrive Gregorio Torcia su A&C.
“È evidente che qualsiasi sistema matematico che analizza i dati è agnostico riguardo al valore dei dati sottostanti. Tuttavia, i sistemi decisionali algoritmici non possono che fare propri ed elaborare i dati che sono stati inseriti in modo distorto, cosicché i sistemi finiscono per “assorbire” eventuali pregiudizi di chi ha creato il sistema, che diventano la base e il presupposto nella produzione del risultato. .
Nel Regno Unito, ad esempio, il software Hart, attualmente in uso in alcuni uffici giudiziari, ha contribuito ad aiutare e velocizzare il lavoro, ma è stato anche accusato di trattamento discriminatorio nei confronti di alcune categorie che si sono viste sanzionare senza una giusta motivazione nell’attribuzione del cosiddetto “livello di rischio”.
È possibile utilizzare un algoritmo per prevedere i tassi di recidiva tra i criminali, ma se gli input sono sbilanciati verso persone di etnie specifiche, gli algoritmi sopravvaluteranno il rischio di recidiva per quelle etnie e sottovaluteranno i rischi per le altre. Allo stesso modo, un algoritmo di linguaggio predittivo può anticipare la probabilità che alcune parole vengano usate in tandem, come “Parigi” con “Francia” o come “Seoul” con “Corea del Sud”, ma associare “uomo” a “dottore” e ” donna” con “casalinga” significa dare per scontato un pregiudizio che vede uomini laureati e donne casalinghe, tanto da inficiare il risultato della ricerca perché i dati sottostanti inseriti nel sistema riflettono un pregiudizio.
Se a questo aggiungiamo una tendenza generale a fidarci della neutralità e dell’accuratezza dei computer molto più di quella degli umani, ci rendiamo immediatamente conto di come i sistemi decisionali automatizzati alimentati dall’Intelligenza Artificiale possano invece portare a una cittadinanza di serie B. , a scapito di quella parte della popolazione che avrà più difficoltà a far valere i propri diritti.
Mentre per quanto riguarda il rischio degli effetti discriminatori, che abbiamo sopra descritto, sembra che negli ultimi anni ci sia stata una progressiva presa di coscienza, è proprio la tendenza generale e acritica a fidarsi dei sistemi basati sull’Intelligenza Artificiale più che sull’azione dell’uomo che porta pericoli meno evidenti ma non meno allarmanti: il fatto stesso di delegare competenze tecniche a meccanismi automatizzati costituisce un pericolo progressivamente maggiore, poiché la loro diffusione sempre più capillare e un conseguente spostamento di competenze dalle persone alle macchine, anche con loro capacità di correggersi/perfezionarsi, rischia di creare una prospettiva che mina l’esistenza stessa della società.
In sostanza, il problema dei “pregiudizi” di automazione si acuirebbe nell’applicazione di specifiche e complesse normative/procedure di settore; si pensi all’uso dei droni per rilevare le differenze costruttive o alle telecamere con riconoscimento facciale per controllare il comportamento sociale.
In questi ambiti, se le aziende si affidano sempre più ai sistemi automatizzati considerandoli meglio attrezzati rispetto agli esseri umani per padroneggiare un’ampia gamma di regole complicate, le impostazioni discriminanti aggiunte alla capacità di autogestione dei sistemi basati sull’intelligenza artificiale, metteranno davvero a dura prova la libertà delle persone a rischio, creando un nuovo elemento caratterizzante la differenza sociale, ovvero il diverso grado di accesso all’impostazione e alla gestione di sistemi che saranno sempre più pervasivi nella nostra quotidianità, avendo la capacità non solo di controllo, ma anche di indirizzo di i nostri comportamenti e le nostre scelte: pensiamo a un sistema che supporti la propaganda politica, basato sul trattamento dei dati (raccolti tramite Google, Twitter, Facebook, Instagram ecc.) da cui trae i profili degli abitanti di un paese, essendo così in grado di conoscere i valori in cui credono, i loro desideri-paure, le loro convinzioni religiose, ecc.
Siamo pronti a consegnare la gestione delle nostre scelte e delle nostre libertà fondamentali a strumenti sui quali avremo sempre meno controllo?”
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Il tribunale nel metaverso. Prime prove in Colombia
Può interessarti anche: India: la Corte Suprema trascriverà i processi dal vivo con l’intelligenza artificiale
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it