Tre punti da cui partire per regolamentare l’intelligenza artificiale non solo in ambito pubblico

Daniel E. Ho, professore di diritto William Benjamin Scott e Luna M. Scott presso la Stanford Law School propone tre punti su cui sviluppare una regolazione per l’intelligenza artificiale

“Dobbiamo sviluppare una migliore comprensione del rischio emergente. Abbiamo bisogno di una ricerca che identifichi chiaramente il rischio marginale dell’intelligenza artificiale, e in particolare i modelli di base, rispetto alle linee di base esistenti.

In secondo luogo, dovremo costruire migliori collaborazioni tra ambiti tecnici e legali per identificare politiche che siano tecnicamente e istituzionalmente fattibili. Ad esempio, troppe proposte legislative si ancorano alla spiegabilità, ma la scienza della spiegabilità è ancora agli inizi. Al contrario, molti studiosi tecnici punteranno verso gli audit governativi, che potrebbero non essere fattibili, o gli audit di settore, che pongono acuti conflitti di interessi. Avremo bisogno di molte più collaborazioni tra tecnologi, scienziati sociali e avvocati.

In terzo luogo, dovremmo anche essere chiari sul fatto che l’impulso alla regolamentazione dell’IA, riflettendoci, potrebbe effettivamente militare verso una regolamentazione non-IA. L’ansia per il rischio delle armi biologiche, ad esempio, potrebbe effettivamente richiedere un rafforzamento della supervisione dei laboratori fisici. Allo stesso modo, non è ovvio il motivo per cui l’impronta ambientale dei modelli di base per la formazione dovrebbe portare a una tassa sulla formazione dei modelli di intelligenza artificiale, invece di una tassa generale sul carbonio.

Man mano che l’intelligenza artificiale si sposta in nuovi ambiti, le misure di salvaguardia saranno fondamentali. Per la professione legale, penso che ciò significhi, soprattutto, che la tecnologia dovrebbe assistere il processo decisionale legale, non sostituirlo. La risoluzione ABA, che richiede il controllo umano e la responsabilità organizzativa, rappresenta un buon passo avanti in tal senso”.

Tratto da un’intervista a Daniel E. Ho, professore di diritto William Benjamin Scott e Luna M. Scott presso la Stanford Law School: https://www.theregreview.org/2023/10/08/sunday-spotlight-risk-identification-in-ai-regulation/

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: Intelligenza artificiale: sei stai parlando con bot devi saperlo, la California ha approvato una legge in merito

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Related Posts