Avvocati e intelligenza artificiale: “va fatta una supervisione umana”, giudici della Corte di Giustizia di Alberta

Alcuni giudici di Alberta in Canada avvertono gli avvocati e il pubblico di essere cauti quando si utilizzano strumenti di intelligenza artificiale per preparare i casi in aula: “va sempre tenuta una supervisione umana”. L’avvertimento è arrivato dopo un caso americano di alto profilo all’inizio di quest’anno in cui un giudice federale di New York ha multato due avvocati per aver presentato una memoria generata da ChatGPT che citava precedenti legali che non esistevano e non esistono.

“Nell’interesse di mantenere i più alti standard di accuratezza e autenticità, qualsiasi proposta generata dall’intelligenza artificiale deve essere verificata con un controllo umano pervasivo”, hanno affermato i giudici.

Durante i procedimenti giudiziari, gli avvocati o le parti in causa auto rappresentate fanno riferimento a casi e decisioni precedenti come parte delle loro argomentazioni, spesso esortando un giudice a prendere in considerazione quelle decisioni passate quando accerta i fatti o determina una sentenza.

Due avvocati negli Stati Uniti sono stati sorpresi a utilizzare false memorie legali create da ChatGPT. Ma ciò non significa che l’intelligenza artificiale non possa aiutare nei procedimenti giudiziari.

Il suggerimento dei giudici di Alberta vuole indirizzare tutti gli avvocati e le parti in causa autorappresentate, che utilizzano strumenti di intelligenza artificiale, a ricontrollare che tutti i casi a cui intendono fare riferimento esistano effettivamente consultando fonti autorevoli, come i siti Web dei tribunali o servizi legali affidabili.

L’annuncio non scoraggia l’uso dell’intelligenza artificiale, invita solo alla cautela. “Alla fine, ci deve essere un elemento umano”, ha detto Ruether. “Le osservazioni devono essere accurate e coerenti con le responsabilità professionali degli avvocati.”

Fonte: https://www.cbc.ca/news/canada/edmonton/alberta-courts-warn-lawyers-about-ai-use-in-courtroom-1.6994204

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: Perché gli algoritmi dei Large Linguistic Models come ChatGPT possono dare risposte sbagliate?

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

 

 

Related Posts