L’intelligenza artificiale sa creare contenuti sintetici, studi accademici dall’aspetto autorevole, notizie dal suono plausibile, immagini bufale e video deepfake

“Usando la sua autorità esistente, la Federal Trade Commission, nelle parole dell’autore ‘… ha già avvertito che gli strumenti di intelligenza artificiale generativa sono abbastanza potenti da creare contenuti sintetici – notizie dal suono plausibile, studi accademici dall’aspetto autorevole, immagini bufale e video deepfake – e che questo contenuto sintetico sta diventando difficile da distinguere dal contenuto autentico.’

“Aggiunge che ‘questi strumenti sono facili da usare praticamente per chiunque’. Big Tech sta correndo molto avanti rispetto a qualsiasi quadro legale per l’IA nella ricerca di grandi profitti mentre spinge per l’autoregolamentazione invece dei vincoli imposti dalla regola di legge.

“Non c’è fine ai disastri previsti, sia dalle persone all’interno del settore che dai suoi critici esterni. Distruzione dei mezzi di sussistenza; impatti nocivi sulla salute dalla promozione di rimedi ciarlatani; frode finanziaria; falsità politiche ed elettorali; spogliamento delle informazioni comuni; sovversione dell’internet aperto; falsificare l’immagine del viso, la voce, le parole e il comportamento; ingannare te e gli altri con bugie ogni giorno.

L’avvocato difensore impara a proprie spese a non fidarsi di ChatGPT

Un caso recente che evidenzia la necessità di una prudenza radicale è stato quello di un caso giudiziario in cui l’avvocato dell’accusa ha utilizzato ChatGPT per svolgere le sue ricerche legali.

Solo un problema. Nessuna delle giurisprudenza citata da ChatGPT era reale. Inutile dire che l’invenzione della giurisprudenza è disapprovata, quindi le cose non sono andate bene.

Quando nessuno degli avvocati difensori o il giudice sono riusciti a trovare le decisioni citate, l’avvocato, Steven A. Schwartz dello studio Levidow, Levidow & Oberman, si è finalmente reso conto del suo errore e si è gettato in balia del tribunale.

Schwartz, che esercita la professione legale a New York da 30 anni, ha affermato di non essere “a conoscenza della possibilità che il suo contenuto possa essere falso” e di non avere alcuna intenzione di ingannare la corte o l’imputato. Schwartz ha affermato di aver persino chiesto a ChatGPT di verificare che la giurisprudenza fosse reale, e ha detto che lo era. Secondo quanto riferito, il giudice sta valutando sanzioni.

Tratto da: https://childrenshealthdefense.org/defender/artificial-intelligence-bioweapons-covid-vaccines-cola/

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: “Rischiamo di passare dall’intelligenza artificiale alla stupidità naturale”, presidente Emerito della Corte Costituzionale Giovanni Maria Flick

Può interessarti anche: Intelligenza artificiale: servono limiti e controlli prima che si evolva troppo da essere una minaccia

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Related Posts