Il Sole 24 ore adotta un codice etico per l’utilizzo dell’intelligenza artificiale in redazione

“Il codice, elaborato con il contributo di esperti interni ed esterni e condiviso con le redazioni del Gruppo, si ispira ai principi e alle raccomandazioni delle principali organizzazioni internazionali e nazionali, come l’AI Act approvato dall’Unione Europea e la relazione della Commissione IA per l’Informazione del Governo italiano, e si propone di garantire che l’utilizzo dell’IA sia in linea con i valori di onestà, correttezza e trasparenza che hanno sempre guidato il Gruppo nei suoi quasi 160 anni di storia”, scrivono.

“Il codice adottato dal Sole 24 per l’uso dell’intelligenza artificiale in redazione si articola in sei principi fondamentali:

·       Conformità normativa: il Gruppo si impegna a verificare che qualunque scelta relativa all’applicazione di modelli di IA nel Gruppo si sviluppi attraverso un utilizzo corretto e consapevole degli strumenti dell’IA, in modo da massimizzarne i vantaggi evitando comportamenti rischiosi, violazioni delle politiche aziendali o della normativa. Nell’utilizzo dell’IA vanno sempre tutelati il rispetto della privacy, la gestione efficace dei dati personali, la protezione del diritto d’autore e della proprietà intellettuale, del Gruppo o di terzi.

·       Provenienza e Affidabilità dei dati: il Gruppo si impegna a garantire che i dati utilizzati per alimentare i sistemi di IA siano pertinenti, accurati, completi, aggiornati, sempre sotto la responsabilità del Gruppo. Tutti i dati dovranno provenire da fonti attendibili e verificate, valorizzando la trasparenza in relazione all’origine, e dovranno essere revisionati periodicamente per garantirne l’attualità, integrità e rilevanza.

·       Human in the loop: il Gruppo assicura la centralità dell’imprescindibile ruolo umano e professionale nel processo di sviluppo e adozione dell’IA e, pertanto, garantisce che le decisioni e le azioni basate sull’IA siano sempre sottoposte al controllo e alla supervisione umana. In questo modo i professionisti e gli operatori che utilizzano lo strumento potranno sempre mantenere autonomia valutativa e decisionale. In ambito giornalistico, l’IA sarà utilizzata esclusivamente come supporto all’attività dei giornalisti e non in sua sostituzione, garantendo qualità, imparzialità e pluralismo informativo.

·       Inclusività e Diversità: il Gruppo promuove l’uso dell’IA per favorire l’inclusività e la diversità ed evitare ogni genere di discriminazione attraverso revisioni costanti di algoritmi e dataset che devono essere rappresentativi della varietà socioculturale per prevenire stereotipi e informazioni scorrette e promuovere soluzioni che siano eticamente fondate e socialmente responsabili.

·       Responsabilità e Accountability: il Gruppo si impegna a far sì che ogni utente – a prescindere dal proprio ruolo nella struttura aziendale – assuma la propria responsabilità nell’utilizzo dell’IA, in quanto le responsabilità individuali, le competenze e la “presa in carico” sono da considerarsi essenziali per l’integrazione e l’utilizzo dell’IA nei processi produttivi e decisionali. Considerando che il risultato generato da un sistema di IA è potenzialmente imperfetto, prima di utilizzarlo sarà necessario verificare che tale risultato sia corretto e accurato”.

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Intelligenza artificiale e giornalismo: i gradi di fiducia diminuiranno

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts