“La sfida fondamentale è l’asimmetria informativa tra industria e governo sui rischi emergenti. Quando parliamo dei rischi delle armi biologiche o anche del rischio esistenziale derivante dall’intelligenza artificiale, la politica non dovrebbe essere basata su aneddoti e favole. Per ridurre tale asimmetria informativa e produrre informazioni tempestive, ho favorito sempre più i meccanismi di segnalazione e controllo degli eventi avversi”, spiega Daniel E. Ho, professore di diritto William Benjamin Scott e Luna M. Scott presso la Stanford Law School
“La questione normativa più urgente è lo sviluppo di un meccanismo per comprendere i rischi emergenti associati all’intelligenza artificiale. Attualmente, gran parte del dialogo è guidato da resoconti speculativi e aneddotici su come i sistemi di intelligenza artificiale ad alta capacità potrebbero comportare rischi per la sicurezza informatica e la sicurezza nazionale. Sarà fondamentale per il governo sviluppare la capacità normativa per sviluppare una comprensione informata di questi rischi emergenti, senza fare affidamento sui resoconti di un piccolo numero di soggetti che potrebbero avere interessi molto distinti.
In altre aree in cui il governo ha bisogno di essere informato sui rischi emergenti, come quelli legati alla sicurezza informatica o agli agenti patogeni pericolosi, abbiamo istituito meccanismi per la segnalazione e l’indagine obbligatorie di tali incidenti. Alcune affermazioni sui rischi associati all’uso di ampi modelli linguistici per le armi biologiche potrebbero rivelarsi non più preoccupanti dell’uso delle ricerche sul web. Altri rischi potrebbero rivelarsi sostanziali. E il problema in questo momento è che il governo non riesce a distinguere facilmente le esagerazioni dalla realtà.
Oggi, le proposte che è stato più facile portare avanti sono quelle che pongono vincoli al settore pubblico, meno a quello privato. Molte di queste proposte sono salutari, poiché i sistemi governativi prendono decisioni consequenziali. Ma alcuni potrebbero inavvertitamente vincolare le agenzie con la burocrazia e compromettere il potenziale di trasformazione della tecnologia e dell’intelligenza artificiale per il governo. A mio avviso, la tecnologia del settore pubblico e la regolamentazione dell’IA sono inestricabilmente intrecciate, poiché entrambe riguardano fondamentalmente la competenza e la capacità dell’agenzia. In una precedente valutazione degli sforzi del governo federale per attuare un’iniziativa chiave di trasparenza, ad esempio gli inventari dei casi d’uso dell’intelligenza artificiale, come previsto dall’ordine esecutivo 13.960, la capacità burocratica era allarmante. Se le agenzie sono così impegnate nella burocrazia da non poter assumere tecnici, non saranno in grado di regolamentare efficacemente l’intelligenza artificiale”.
Tratto da un’intervista a Daniel E. Ho, professore di diritto William Benjamin Scott e Luna M. Scott presso la Stanford Law School: https://www.theregreview.org/2023/10/08/sunday-spotlight-risk-identification-in-ai-regulation/
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Web3 e localizzazione dei DPI per perseguire gli illeciti: come agisce la legge
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it