Walmart, Delta, Chevron, Starbucks, Nestlé e Astrazeneca usano l’intelligenza artificiale per monitorare i messaggi dei dipendenti. Lo scoop della CNBC

Walmart, Delta, Chevron e Starbucks usano l’intelligenza artificiale per monitorare i messaggi dei dipendenti. così come marchi europei tra cui Nestlé e AstraZeneca. Lo denuncia la CNBC

Aware, una società di intelligenza artificiale specializzata nell’analisi dei messaggi dei dipendenti, ha affermato che aziende tra cui Walmart, Delta, T-Mobile, Chevron e Starbucks stanno utilizzando la sua tecnologia.
Aware ha affermato che il suo archivio di dati contiene messaggi che rappresentano circa 20 miliardi di interazioni individuali tra più di 3 milioni di dipendenti.

“Molto di questo diventa reato di pensiero”, ha detto Jutta Williams, co-fondatrice di Humane Intelligence, riferendosi alla tecnologia di sorveglianza dei dipendenti IA in generale. Ha aggiunto: “Questo significa trattare le persone come inventario in un modo che non ho mai visto”.

Lo stesso hanno fatto marchi europei tra cui Nestlé e AstraZeneca: si sono rivolti a una startup nata sette anni fa, Aware, per monitorare le chiacchiere tra i loro ranghi, secondo la società.

Jeff Schumann, co-fondatore e CEO della startup con sede a Columbus, Ohio, afferma che l’intelligenza artificiale aiuta le aziende a “comprendere il rischio nelle loro comunicazioni”, ottenendo una lettura del sentiment dei dipendenti in tempo reale, anziché dipendere da uno o due dati annuali. sondaggio annuale.

Secondo Schumann, utilizzando i dati anonimizzati nel prodotto di analisi di Aware, i clienti possono vedere come i dipendenti di una determinata fascia di età o in una particolare area geografica stanno rispondendo a una nuova politica aziendale o campagna di marketing. Le dozzine di modelli di intelligenza artificiale di Aware, costruiti per leggere testi ed elaborare immagini, possono anche identificare bullismo, molestie, discriminazione, non conformità, pornografia, nudità e altri comportamenti, ha affermato.

Secondo Schumann, lo strumento di analisi di Aware, quello che monitora il sentiment e la tossicità dei dipendenti, non ha la capacità di contrassegnare i nomi dei singoli dipendenti. Ma il suo strumento di eDiscovery separato può farlo, in caso di minacce estreme o altri comportamenti rischiosi predeterminati dal cliente, ha aggiunto.

Aware ha affermato che Walmart, T-Mobile, Chevron e Starbucks utilizzano la sua tecnologia per il rischio di governance e la conformità e questo tipo di lavoro rappresenta circa l’80% dell’attività dell’azienda.

La CNBC non ha ricevuto risposta da Walmart, T-Mobile, Chevron, Starbucks o Nestlé in merito al loro utilizzo di Aware. Un rappresentante di AstraZeneca ha affermato che l’azienda utilizza il prodotto eDiscovery ma non utilizza l’analisi per monitorare il sentiment o la tossicità. Delta ha dichiarato alla CNBC che utilizza l’analisi e l’eDiscovery di Aware per monitorare le tendenze e il sentiment come un modo per raccogliere feedback dai dipendenti e da altre parti interessate e per la conservazione dei documenti legali nella sua piattaforma di social media.

Non ci vuole un appassionato di romanzi distopici per capire dove tutto potrebbe andare storto.

Jutta Williams, co-fondatrice dell’organizzazione no-profit Humane Intelligence, responsabile dell’intelligenza artificiale, ha affermato che l’intelligenza artificiale aggiunge una nuova e potenzialmente problematica ruga ai cosiddetti programmi di rischio interno, che esistono da anni per valutare cose come lo spionaggio aziendale, in particolare all’interno delle comunicazioni e-mail.

Parlando in generale dell’intelligenza artificiale per la sorveglianza dei dipendenti piuttosto che della tecnologia di Aware nello specifico, Williams ha dichiarato alla CNBC: “Molto di questo diventa psicocrimine”. Ha aggiunto: “Questo significa trattare le persone come inventario in un modo che non ho mai visto”.

L’intelligenza artificiale per la sorveglianza dei dipendenti è un pezzo di nicchia ma in rapida espansione di un mercato dell’intelligenza artificiale più ampio che è esploso l’anno scorso, in seguito al lancio del chatbot ChatGPT di OpenAI alla fine del 2022. L’intelligenza artificiale generativa è diventata rapidamente la frase in voga per le chiamate sugli utili aziendali e una qualche forma di la tecnologia sta automatizzando le attività in quasi tutti i settori, dai servizi finanziari e la ricerca biomedica alla logistica, ai viaggi online e ai servizi di pubblica utilità.

Le entrate di Aware sono aumentate in media del 150% all’anno negli ultimi cinque anni, ha detto Schumann alla CNBC, e il suo cliente tipico ha circa 30.000 dipendenti. I principali concorrenti includono Qualtrics, Relativity, Proofpoint, Smarsh e Netskope.

Secondo gli standard del settore, Aware rimane piuttosto snella. L’ultima volta che la società ha raccolto fondi è stata nel 2021, quando ha raccolto 60 milioni di dollari in un round guidato da Goldman Sachs

Gestione delle risorse. Confrontalo con il modello linguistico di grandi dimensioni, o LLM, di aziende come OpenAI e Anthropic, che hanno raccolto miliardi di dollari ciascuna, in gran parte da partner strategici.

“Monitoraggio della tossicità in tempo reale”

Schumann ha avviato l’azienda nel 2017 dopo aver trascorso quasi otto anni lavorando sulla collaborazione aziendale presso la compagnia assicurativa Nationwide

prima ancora era un imprenditore. E Aware non è la prima azienda da lui fondata a suscitare pensieri su Orwell.

Nel 2005, Schumann ha fondato una società chiamata BigBrotherLite.com. Secondo il suo profilo LinkedIn, l’azienda ha sviluppato un software che “migliorava l’esperienza di visione digitale e mobile” della serie reality della CBS “Il Grande Fratello”. Nel classico romanzo di Orwell “1984”, il Grande Fratello era il leader di uno stato totalitario in cui i cittadini erano sotto sorveglianza perpetua.

“Ho creato un lettore semplice incentrato su un’esperienza di consumo più pulita e più semplice per consentire alle persone di guardare il programma televisivo sul proprio computer”, ha detto Schumann in una e-mail.

Ad Aware sta facendo qualcosa di molto diverso.

Ogni anno, l’azienda pubblica un rapporto che aggrega informazioni provenienti da miliardi – nel 2023, il numero era di 6,5 miliardi – di messaggi inviati alle grandi aziende, classificando i fattori di rischio percepiti e i punteggi del sentiment sul posto di lavoro. Schumann definisce i trilioni di messaggi inviati ogni anno attraverso le piattaforme di comunicazione sul posto di lavoro come “il set di dati non strutturati in più rapida crescita al mondo”.

Quando si includono altri tipi di contenuti condivisi, come immagini e video, l’intelligenza artificiale di Aware analizza più di 100 milioni di contenuti ogni giorno. In tal modo, la tecnologia crea un grafico sociale aziendale, osservando quali team parlano tra loro internamente più di altri.

“Monitora sempre il sentimento dei dipendenti in tempo reale e tiene sempre traccia della tossicità in tempo reale”, ha affermato Schumann dello strumento di analisi. “Se fossi una banca che usa Aware e il sentimento della forza lavoro abbia registrato un picco negli ultimi 20 minuti, è perché stanno parlando di qualcosa di positivo, collettivamente. La tecnologia sarebbe in grado di dire loro qualunque cosa fosse”.

Aware ha confermato alla CNBC di utilizzare i dati dei suoi clienti aziendali per addestrare i suoi modelli di apprendimento automatico. Il repository di dati dell’azienda contiene circa 6,5 miliardi di messaggi, che rappresentano circa 20 miliardi di interazioni individuali tra più di 3 milioni di dipendenti unici, ha affermato la società.

Quando un nuovo cliente si iscrive allo strumento di analisi, i modelli di intelligenza artificiale di Aware impiegano circa due settimane per addestrarsi sui messaggi dei dipendenti e conoscere i modelli di emozioni e sentimenti all’interno dell’azienda in modo che possa vedere cosa è normale e cosa è anormale, ha detto Schumann.

“Non avrà nomi di persone, per proteggere la privacy”, ha detto Schumann. Piuttosto, ha detto, i clienti vedranno che “forse la forza lavoro di età superiore ai 40 anni in questa parte degli Stati Uniti sta vedendo i cambiamenti a [una] politica in modo molto negativo a causa dei costi, ma tutti gli altri al di fuori di quella fascia di età e location lo vede positivamente perché ha un impatto diverso su di loro.

Ma lo strumento eDiscovery di Aware funziona in modo diverso. Un’azienda può impostare un accesso basato sui ruoli ai nomi dei dipendenti a seconda della categoria di “rischio estremo” scelta dall’azienda, che istruisce la tecnologia di Aware a estrarre il nome di un individuo, in alcuni casi, per le risorse umane o un altro rappresentante dell’azienda.

“Alcuni di quelli comuni sono violenza estrema, bullismo estremo, molestie, ma variano a seconda del settore”, ha affermato Schumann, aggiungendo che nei servizi finanziari, il sospetto insider trading verrebbe monitorato.

Ad esempio, un cliente può specificare una politica di “minacce violente”, o qualsiasi altra categoria, utilizzando la tecnologia di Aware, ha affermato Schumann, e fare in modo che i modelli di intelligenza artificiale monitorino le violazioni in Slack, Microsoft.

. Il client potrebbe anche associarlo a flag basati su regole per determinate frasi, dichiarazioni e altro. Se l’intelligenza artificiale trovasse qualcosa che violava le politiche specificate da un’azienda, potrebbe fornire il nome del dipendente al rappresentante designato dal cliente.

Questo tipo di pratica è stata utilizzata per anni nelle comunicazioni via email. La novità è l’uso dell’intelligenza artificiale e la sua applicazione su piattaforme di messaggistica sul posto di lavoro come Slack e Teams.

Amba Kak, direttrice esecutiva dell’AI Now Institute della New York University, è preoccupata dall’utilizzo dell’intelligenza artificiale per determinare quali siano i comportamenti considerati rischiosi.

“Il risultato è un effetto dissuasivo su ciò che le persone dicono sul posto di lavoro”, ha detto Kak, aggiungendo che la Federal Trade Commission, il Dipartimento di Giustizia e la Commissione per le Pari Opportunità di Lavoro hanno tutti espresso preoccupazione sulla questione, anche se non si riferiva specificamente a ciò che le persone dicono sul posto di lavoro. La tecnologia di Aware. “Questi sono tanto problemi di diritti dei lavoratori quanto problemi di privacy”.

Schumann ha affermato che sebbene lo strumento di eDiscovery di Aware consenta ai team investigativi sulla sicurezza o sulle risorse umane di utilizzare l’intelligenza artificiale per cercare tra enormi quantità di dati, una “capacità simile ma di base esiste già oggi” in Slack, Teams e altre piattaforme.

“Una distinzione fondamentale qui è che Aware e i suoi modelli di intelligenza artificiale non prendono decisioni”, ha affermato Schumann. “La nostra intelligenza artificiale semplifica semplicemente l’analisi di questo nuovo set di dati per identificare potenziali rischi o violazioni delle politiche”.

Preoccupazioni relative alla privacy

Anche se i dati sono aggregati o resi anonimi, la ricerca suggerisce, è un concetto imperfetto. Uno studio fondamentale sulla privacy dei dati utilizzando i dati del censimento statunitense del 1990 ha mostrato che l’87% degli americani potrebbe essere identificato esclusivamente utilizzando il codice postale, la data di nascita e il sesso. I clienti consapevoli che utilizzano il suo strumento di analisi hanno il potere di aggiungere metadati al tracciamento dei messaggi, come età, posizione, divisione, incarico o funzione lavorativa dei dipendenti.

“Quello che stanno dicendo si basa su un concetto molto obsoleto e, direi, completamente sfatato a questo punto, secondo cui l’anonimizzazione o l’aggregazione è come una bacchetta magica per superare il problema della privacy”, ha detto Kak.

Inoltre, secondo una recente ricerca, il tipo di modello di intelligenza artificiale utilizzato da Aware può essere efficace nel generare inferenze da dati aggregati, facendo ipotesi accurate, ad esempio, sugli identificatori personali basati sulla lingua, sul contesto, sui termini gergali e altro ancora.

“Nessuna azienda è essenzialmente nella posizione di fornire garanzie generali sulla privacy e sulla sicurezza degli LLM e di questo tipo di sistemi”, ha affermato Kak. “Non c’è nessuno che possa dirti con la faccia seria che queste sfide sono state risolte”.

E per quanto riguarda il ricorso dei dipendenti? Se un’interazione viene segnalata e un lavoratore viene sanzionato o licenziato, è difficile per lui offrire una difesa se non è a conoscenza di tutti i dati coinvolti, ha affermato Williams.

“Come affronti il tuo accusatore quando sappiamo che la spiegabilità dell’IA è ancora immatura?” Williams ha detto.

Schumann ha risposto in risposta: “Nessuno dei nostri modelli di intelligenza artificiale prende decisioni o raccomandazioni riguardanti la disciplina dei dipendenti”.

“Quando il modello segnala un’interazione”, ha affermato Schumann, “fornisce un contesto completo su ciò che è accaduto e quale politica ha innescato, fornendo alle squadre investigative le informazioni di cui hanno bisogno per decidere i passi successivi coerenti con le politiche aziendali e la legge”.

Tradotto da: Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: Bisogna regolamentare l’intelligenza artificiale perché non mini le democrazie, Yuval Noah Harari

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts