“Google ha condannato per molti anni l’utilizzo di catene di Markov per generare testo in contenuti a basso sforzo, sotto la bandiera di “pagine generate automaticamente che non forniscono alcun valore aggiunto”, spiega Mark Williams-Cook in un suo recente articolo su Searc Engineland.
“Ciò che è particolarmente interessante, e soprattutto un punto di confusione o un’area grigia per alcuni, è il significato di “nessun valore aggiunto”.
Nonostante le questioni etiche, una domanda che emerge ripetutamente è: “I motori di ricerca possono rilevare i miei contenuti AI?”
La domanda è ritenuta particolarmente importante perché se la risposta è “no”, invalida molte altre domande su se e come dovrebbe essere utilizzata l’IA.
Una lunga storia di contenuti generati automaticamente
Sebbene la frequenza della creazione di contenuti generati o assistiti dalla macchina non abbia precedenti, non è del tutto nuova e non è sempre negativa.
Per prima cosa raccontare le storie è un imperativo per i siti web di notizie, che da tempo utilizzano dati provenienti da varie fonti, come mercati azionari e sismometri, per accelerare la creazione di contenuti.
Ad esempio, è effettivamente corretto pubblicare un articolo sui robot che dice:
“Un terremoto di [magnitudo] è stato rilevato in [località, città] alle [ora]/[data] questa mattina, il primo terremoto dalla [data dell’ultimo evento]. Seguiranno altre notizie”.
Aggiornamenti come questo sono utili anche per il lettore finale che ha bisogno di ottenere queste informazioni il più rapidamente possibile.
All’altra estremità dello spettro, abbiamo visto molte implementazioni “blackhat” di contenuti generati dalla macchina.
Importanti pubblicazioni come Men’s Health e CNET sono state sorprese a pubblicare quest’anno informazioni generate dall’IA di fatto errate, evidenziando la preoccupazione.
Gli editori non sono soli con questo problema, poiché Google ha avuto difficoltà a frenare i suoi contenuti Search Generative Experience (SGE) con contenuti YMYL.
È chiaro che Google crede che ci sia spazio per i contenuti generati dalla macchina per rispondere alle domande degli utenti. Google lo ha accennato da maggio 2021, quando hanno annunciato MUM, il loro modello unificato multitasking.
Una sfida che MUM si proponeva di affrontare era basata sui dati che le persone emettono in media otto query per attività complesse.
In una query iniziale, il ricercatore apprenderà alcune informazioni aggiuntive, sollecitando ricerche correlate e facendo emergere nuove pagine Web per rispondere a tali domande.
Google ha proposto: e se potessero prendere la domanda iniziale, anticipare le domande di follow-up degli utenti e generare la risposta completa utilizzando la loro conoscenza dell’indice?
Supponendo che Google sia in grado di identificare le query adatte alle risposte generate dall’intelligenza artificiale, molte domande potrebbero essere considerate “risolte”.
Questo solleva la domanda…
Perché Google dovrebbe mostrare a un ricercatore la tua pagina web con una risposta pre-generata quando possono trattenere l’utente all’interno del loro ecosistema di ricerca e generare la risposta da soli?
Google ha un incentivo finanziario per mantenere gli utenti all’interno del suo ecosistema.
Supponiamo che Google ritenga che il tuo testo generato non offra un valore superiore a quello che può già fornire. In tal caso, diventa semplicemente una questione di costi e benefici per il motore di ricerca.
Possono generare maggiori entrate a lungo termine assorbendo le spese di generazione e facendo aspettare all’utente una risposta invece di inviare l’utente in modo rapido ed economico a una pagina che sanno già esistere?
Le dichiarazioni di Google sui contenuti AI sono state storicamente abbastanza vaghe da dare loro spazio di manovra per quanto riguarda l’applicazione.
Tuttavia, quest’anno è stata pubblicata una guida aggiornata in Google Search Central che dice esplicitamente:
“Il nostro obiettivo è la qualità dei contenuti, piuttosto che il modo in cui i contenuti vengono prodotti”.
Ancor prima di questo, Danny Sullivan, il collegamento con la ricerca di Google, è intervenuto sulle conservazioni di Twitter per affermare che “non hanno detto che i contenuti AI sono cattivi”.
Google elenca esempi specifici di come l’IA può generare contenuti utili, come risultati sportivi, previsioni del tempo e trascrizioni.
È chiaro che Google è molto più interessato all’output che ai mezzi per arrivarci, raddoppiando su “generare contenuti con lo scopo principale di manipolare il posizionamento nei risultati di ricerca è una violazione delle nostre norme antispam”.”
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Intelligenza artificiale: sei stai parlando con bot devi saperlo, la California ha approvato una legge in merito
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it