Ai Act: avvocati come “deployer”, utilizzatori dell’intelligenza artificiale. Servono regole precise per l’utilizzo

“Con l’adozione dell’AI Act da parte dell’Unione Europea, destinato ad entrare in vigore nel 2025, l’avvocato che utilizza strumenti di intelligenza artificiale nello svolgimento della sua attività professionale assume il ruolo di “utilizzatore” (deployer) secondo la definizione normativa”, spiega l’avv. Stefano Nardini.

“In tale veste, egli è chiamato a garantire l’impiego dell’IA nel rispetto dei principi di trasparenza, tracciabilità, affidabilità e supervisione umana.
Anche se strumenti come ChatGPT non rientrano sempre nelle categorie di sistemi ad “alto rischio”, l’obbligo generale di diligenza si rafforza quando l’output dell’IA può influenzare decisioni giuridiche o processuali.
In ottica compliance, diventa essenziale:

  • implementare pratiche di verifica documentata;
  • definire ruoli e responsabilità;
  • assicurare la tracciabilità dei processi decisionali;
  • mantenere sempre la supervisione umana.

Possibili linee guida per il futuro della professione legale

  • Formazione mirata: Avvocati, praticanti e collaboratori di studio devono essere formati non solo sul funzionamento dell’IA generativa, ma anche sulle sue implicazioni giuridiche, deontologiche e sui limiti normativi applicabili.
  • Policy e protocolli interni: È auspicabile che ogni studio legale si doti di protocolli scritti che disciplinino le modalità di utilizzo degli strumenti di IA, definendo ruoli, responsabilità, obblighi di verifica e tracciabilità delle fonti.
  • Ruolo attivo delle istituzioni forensi: Ordini, consigli e scuole forensi dovrebbero promuovere linee guida condivise e favorire occasioni di aggiornamento continuo, anche attraverso corsi accreditati e osservatori permanenti sull’impatto dell’IA nel diritto.
  • Etica e trasparenza: L’utilizzo dell’intelligenza artificiale nei procedimenti giudiziari deve essere sempre dichiarato nei limiti del possibile, favorendo la trasparenza e il rispetto del contraddittorio.
  • Responsabilità e vigilanza: Ogni utilizzo di strumenti IA deve prevedere un controllo umano effettivo e tracciabile: il professionista ne resta comunque il responsabile ultimo, anche in presenza di errori generati dal sistema.

Solo così potremo trasformare la sfida dell’IA in un’occasione per riaffermare il valore umano della giustizia.

L’avvocato del futuro non è chi ignora l’IA, ma chi la domina con spirito critico.
La vera evoluzione non è tecnologica, ma culturale: nella capacità di integrare l’innovazione nel rispetto dei principi che fondano il diritto.

Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Avvocati e intelligenza artificiale: “va fatta una supervisione umana”, giudici della Corte di Giustizia di Alberta

Può interessarti anche: L’AI act non affronta il il “rischio insito nel sistema stesso”, le allucinazioni, i bias, Matteo Flora, “abbiamo l’evidenza matematica che è impossibile generare degli LLM, che non allucinano”

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Seguici su X: https://x.com/Presskit_

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts