Quali domande si sta ponendo l’Europa sull’intelligenza artificiale?

“I progressi nell’intelligenza artificiale, nella robotica e nelle cosiddette tecnologie “autonome” hanno introdotto una serie di questioni morali sempre più urgenti e complesse”, scrivono in “Statement on artificial intelligence, robotics and ‘autonomous’ systems”. “Gli attuali sforzi per trovare risposte alle sfide etiche, sociali e legali che esse pongono e per orientarle verso il bene comune rappresentano un mosaico di iniziative disparate. Ciò sottolinea la necessità di un processo di riflessione e di dialogo collettivo, ampio e inclusivo, un dialogo che si concentri sui valori attorno ai quali vogliamo organizzare la società e sul ruolo che le tecnologie dovrebbero svolgere in essa. Questa dichiarazione chiede l’avvio di un processo che apra la strada verso un quadro etico e legale comune e riconosciuto a livello internazionale per la progettazione, la produzione, l’uso e la governance dell’intelligenza artificiale, della robotica e dei sistemi “autonomi”.

La dichiarazione propone inoltre una serie di principi etici fondamentali, basati sui valori sanciti dai trattati dell’UE e dalla Carta dei diritti fondamentali dell’UE, che possono guidarne lo sviluppo.

Domande chiave
L’avvento di sistemi e software ad alta tecnologia in grado di funzionare in modo sempre più indipendente dagli esseri umani e in grado di eseguire compiti che richiederebbero intelligenza se svolti da esseri umani, merita una riflessione speciale. Questi sistemi danno luogo a una serie di questioni morali importanti e difficili.
In primo luogo, domande su sicurezza, protezione, prevenzione dei danni e mitigazione dei rischi. Come possiamo rendere sicuro e protetto un mondo con intelligenza artificiale interconnessa e dispositivi “autonomi” e come possiamo valutare i rischi?
In secondo luogo, ci sono domande sulla responsabilità morale umana. Dove si trova l’agenzia moralmente rilevante in sistemi socio-tecnici dinamici e complessi con intelligenza artificiale avanzata e componenti robotici? Come dovrebbe essere attribuita e ripartita la responsabilità morale e chi è responsabile (e in che senso) di esiti negativi? Ha senso parlare di “controllo condiviso” e “responsabilità condivisa” tra esseri umani e macchine intelligenti? Gli esseri umani faranno parte di ecosistemi di dispositivi “autonomi” come “zone di accartocciamento” morali, inseriti solo per assorbire responsabilità o saranno ben posizionati per assumersi la responsabilità di ciò che fanno?
In terzo luogo, sollevano domande su governance, regolamentazione, progettazione, sviluppo, ispezione, monitoraggio, test e certificazione. Come dovrebbero essere riprogettate le nostre istituzioni e le nostre leggi per renderle al servizio del benessere degli individui e della società e per rendere la società sicura per questa tecnologia?
In quarto luogo, ci sono domande riguardanti il processo decisionale democratico, compreso il processo decisionale su istituzioni, politiche e valori che sono alla base di tutte le domande di cui sopra. Vengono condotte indagini in tutto il mondo per stabilire la misura in cui i cittadini vengono sfruttati dall’uso di tecniche avanzate di nudging basate sulla combinazione di machine learning, big data e scienze comportamentali, che rendono possibile la sottile profilazione, il micro-targeting, adattamento e manipolazione di architetture di scelta in conformità con scopi commerciali o politici.
Infine, ci sono domande sulla spiegabilità e trasparenza dell’IA e dei sistemi “autonomi”. Quali valori servono questi sistemi in modo efficace e dimostrabile? Quali valori sono alla base del modo in cui progettiamo le nostre politiche e le nostre macchine? Attorno a quali valori vogliamo organizzare le nostre società?
E quali valori stiamo lasciando che vengano minati – apertamente o silenziosamente – dal progresso tecnologico e dai compromessi di utilità? L'”ottimizzazione” dei processi sociali guidata dall’intelligenza artificiale basata su sistemi di punteggio sociale con cui alcuni paesi sperimentano, viola l’idea di base di uguaglianza e libertà allo stesso modo dei sistemi di caste, perché costruiscono “diversi tipi di persone” dove in realtà ci sono solo ‘diverse proprietà’ delle persone. Come si può prevenire l’attacco ai sistemi democratici e l’utilizzo dei sistemi di punteggio, come base per il dominio da parte di coloro che hanno accesso a queste potenti tecnologie, essere prevenuti?”

Qui potete scaricare il documento completo: https://op.europa.eu/en/publication-detail/-/publication/dfebe62e-4ce9-11e8-be1d-01aa75ed71a1/language-en/format-PDF/source-78120382

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  AI: possono esserci interessi specifici nella programmazione e raccolta dei dati?

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it