“Se i tuoi dati di marketing sono frammentati, obsoleti o pieni di incongruenze, l’intelligenza artificiale non risolverà il problema; sarà solo un modo più veloce per generare assurdità convincenti”, Greg Kihlstrom

L’espressione “Garbage In, Garbage Out” (spazzatura in entrata, spazzatura in uscita) è nata agli albori dell’informatica.
Un articolo del 1957 sui matematici dell’esercito americano che lavoravano con i mainframe IBM di vecchia generazione utilizzava l’espressione “Garbage In, Garbage Out” (spazzatura in entrata, spazzatura in uscita) per descrivere come input di dati di scarsa qualità portino a output di scarsa qualità.
Questo adagio è diventato sempre più rilevante nel nostro mondo sempre più basato sui dati. Le nostre decisioni basate sui dati sono valide solo quanto lo è l’affidabilità di tali dati.
Salesforce ha pubblicato un report il mese scorso su un dilemma sullo stato del processo decisionale basato sui dati: la fiducia nei dati sta diminuendo, mentre l’affidamento ai dati sta crescendo.
Mentre il 76% dei leader aziendali afferma che l’ascesa dell’IA aumenta la loro necessità di essere basati sui dati, solo il 36% afferma di avere fiducia nell’accuratezza dei dati della propria azienda. E il livello di affidabilità dei dati è crollato del 27% dal 2023.
Con strumenti di intelligenza artificiale sempre più potenti, inclusi gli agenti di intelligenza artificiale che agiscono in modo autonomo, la qualità dei dati sottostanti è più importante che mai.
Mi piace come Greg Kihlstrom ha formulato la sfida:
“Se i tuoi dati di marketing sono frammentati, obsoleti o pieni di incongruenze, l’intelligenza artificiale non risolverà il problema; sarà solo un modo più veloce per generare assurdità convincenti”.

Tradotto da fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  L’AI act non affronta il il “rischio insito nel sistema stesso”, le allucinazioni, i bias, Matteo Flora, “abbiamo l’evidenza matematica che è impossibile generare degli LLM, che non allucinano”

Può interessarti anche: Intelligenza artificiale e controllo della disinformazione: “si sta creando un paradosso: rischiamo di introdurre all’interno di modelli buoni delle forme di bias che in realtà vanno a tarpare le ali a tutto ciò che non è necessariamente offensivo o malevolo”

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Seguici su X: https://x.com/Presskit_

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts