“Meta [ex Facebook) utilizza intensamente l’intelligenza artificiale e ne supporta lo sviluppo continuo”, ha spiegato Julia Reuss, Direttore delle Politiche Pubbliche presso Meta, Centrai Europe.
“La pandemia ha rivelato ancora una volta quanto sia importante riconoscere ed eliminare le informazioni false il più rapidamente possibile. La base per le decisioni su ciò che viene cancellato o rimosso dalle nostre piattaforme sono gli standard della comunità che sono oggetto di continuo sviluppo e adattamento. A seconda del caso individuale, abbiamo tre approcci:
- Il primo è la rimozione dei contenuti se violano i nostri standard della community. Rimuoviamo informazioni false se rappresentano una minaccia per la vita e l’incolumità fisica dei nostri utenti.
- Il secondo è il riconoscimento e la rimozione di informazioni false che hanno il solo scopo di creare scalpore [clickbait].
- In terzo luogo, alleghiamo avvisi ai contenuti che sono stati identificati come falsi o fuorvianti da verificatori di fatti indipendenti.
Su Facebook, il 97% dei contenuti che contengono incitamento all’odio viene riconosciuto automaticamente e rimosso. Prima che una persona sia in grado di farlo, le macchine hanno già scoperto che è coinvolto l’incitamento all’odio. Il riconoscimento di modelli e categorie gioca un ruolo centrale in questo processo. Una decisione chiara e trasparente può essere presa attraverso questi metodi, che possono essere rivisti su richiesta.
L’Al responsabile è una questione importante per noi
La macchina non prende la decisione da sola.
“Un uso responsabile dell’intelligenza artificiale significa che le persone hanno l’ultima parola nelle decisioni.
“L’intelligenza artificiale gioca un ruolo significativo per Meta e sulle nostre piattaforme. Utilizziamo la tecnologia Al per migliorare le nostre piattaforme. Questo ci permette di trovare informazioni. così come l’incitamento all’odio, più rapidamente. Meta segue anche la filosofia di dare contributi allo sviluppo futuro di Al in collaborazione con la ricerca. Facciamo un chiaro riconoscimento dei principi fondamentali della scienza nella nostra ricerca. Questo è il motivo per cui non solo forniamo soluzioni per gli utenti e l’industria, ma mettiamo anche a disposizione gratuitamente le nostre conoscenze e il nostro codice.
Una cosa che abbiamo anche imparato nei nostri sviluppi è che le macchine sono sempre valide solo quanto i dati di cui vengono fornite. Ci sono alcuni dati facili da leggere e altri più difficili. A Meta. abbiamo sviluppato un nuovo algoritmo di apprendimento per consentirci di fare un ulteriore passo avanti nell’etichettatura. La macchina dovrebbe continuare a imparare cose nuove. Il nostro nuovo Few-Shot-Learner dovrebbe consentire di effettuare derivazioni estremamente precise con input di dati limitati.
Di cruciale importanza qui è il concetto di equità che è strettamente legato alla diversità e all’inclusione; vale a dire, di non essere discriminatori e di intensificare qualsiasi disuguaglianza esistente nella società. Ecco perché miriamo a evitare pregiudizi – distorsioni cognitive – nella tecnologia che, ad esempio, esprimono cultura! pregiudizi, al meglio delle nostre possibilità. In tutte le sue decisioni, indipendentemente dal fatto che siano in relazione con Al o altri argomenti, Meta cerca di pensare alla diversità e all’inclusione fin dall’inizio e di includerle nel progresso dello sviluppo. Team diversificati nella loro composizione e strumenti di analisi tecnica sono due elementi fondamentali”.
Qui il rapporto completo: https://www.martenscentre.eu/publication/artificial-intelligence-and-democracy/
Leggi le ultime news su: https://w3b.today
Può interessarti anche: AI: possono esserci interessi specifici nella programmazione e raccolta dei dati?
Seguici su Telegram https://t.me/presskit