Big G aggiorna la sua policy sui giudizi relativi ai prodotti online affidandosi (purtroppo) ciecamente alle intelligenze artificiali
Con milioni di recensioni generate ogni giorno, il problema delle recensioni false è diventato una sfida sempre più centrale. E Google ha annunciato la sua risposta: sfruttare l’intelligenza artificiale.
Il fatto è che questa mossa, piuttosto che essere una soluzione, appare piuttosto un esempio lampante di uso indiscriminato delle macchine, un modus operandi che potrebbe avere conseguenze ancora peggiori rispetto al problema che si propone di risolvere.
In questo articolo ti dirò la mia rispetto alla presa di posizione di Google analizzando gli evidenti limiti della strategia di Mountain View e della sua fiducia mal riposta nei confronti dell’intelligenza artificiale.
La guerra contro le recensioni generate dalle AI
Dopo le novità relative alla politica sulla privacy, Google ha aggiornato la sua policy relativa ai giudizi sui prodotti online, con effetto dal 28 agosto 2023, reagendo alla presunta diffusione di recensioni generate dalle AI. In particolare, la modifica applicata da Big G specifica che tali recensioni non sono consentite e dovrebbero essere segnalate come spam. Inoltre, l’azienda di Mountain View sembra intendere di voler impegnarsi nello scovare questi giudizi utilizzando metodi che combinano l’utilizzo dell’intelligenza artificiale e l’intervento umano.
In sostanza, verranno utilizzati algoritmi creati ad hoc, mentre esperti appositamente formati si occuperanno dei casi più complessi per verificare la loro genuinità.
Nella modifica viene anche specificato in che modo l’azienda intende agire contro eventuali violazioni, ovvero “disapproving violating content or a violating review, as well as issuing warnings or suspending accounts for repeated or egregious violations“. Tradotto, “disconoscendo contenuti o recensioni che violano la policy, nonché ammonendo o sospendendo gli account per violazioni ripetute o gravi”.
In questo caso Google sembra prendere le distanze dall’uso selvaggio delle AI e agire in modo da porre un freno a questo trend, difendendo allo stesso tempo il valore delle recensioni e dei giudizi genuini prodotti da utenti umani.
Bello vero?
Ma ragioniamoci un poco su.
Perché, vedi, vista la mole di contenuti da monitorare e verificare giorno dopo giorno, mi viene difficile credere che l’eventuale intervento di esperti umani nel dare la caccia alle recensioni scritte da bot possa avere un impatto superiore allo 0,000(vedi tu quanti zeri aggiungere)1%. Ed è plausibilissimo che la stragrande maggioranza del lavoro verrà svolto proprio da intelligenze artificiali. Le stesse che, fino a questo momento, si sono rivelate un fallimento nel riconoscere i contenuti generati dalle AI.
L’AI non funziona, ma Google vuole utilizzarla ugualmente
È stata la stessa OpenAI a lanciare poco tempo fa un sistema che sarebbe dovuto essere in grado di capire se un particolare contenuto era stato generato da un umano o da un intelligenza artificiale. Mi riferisco a quello che abbiamo conosciuto come AI classifier e che si è rivelato un fiasco totale.
Uno dei principali problemi rilevati riguarda una significativa tendenza del sistema a classificare erroneamente i testi scritti da autori di madrelingua non inglese come generati dall’AI, un problema legato al fatto che sembra quasi che la maggior parte delle intelligenze artificiali ragionino ‘in inglese’, sia nella comprensione di ciò che ‘leggono’, sia nella produzione di contenuti.
Ma ce ne sono molti altri che rendono il classifier estremamente inaccurato con possibili e pericolose conseguenze come:
- accuse ingiuste di plagio a scrittori umani;
- contenuti plagiati o generati da AI che passano inosservati;
- rinforzo di pregiudizi se l’AI classifica erroneamente certi stili di scrittura come non umani (vedi sopra il riferimento alle differenze rispetto alla madrelingua dell’autore del testo);
- disinformazione nel momento in cui contenuti falsi o manipolati sfuggono a un sistema evidentemente difettoso e non in grado di riconoscerli.
Insomma, fino a questo momento il classifier ha dimostrato un’accuratezza decisamente inferiore alle aspettative. Tanto è vero che OpenAI, leader in questa corsa verso il futuro, ha deciso di sospendere il suo progetto in attesa di interventi di miglioramento che lo rendano più preciso e che evitino a tanti copywriter, studenti, scrittori e via dicendo di essere ingiustamente accusati di aver fatto ricorso a un AI per la scrittura dei loro testi.
In poche parole: le AI non sono in grado di riconoscere loro stesse.
Eppure Google sembra aver avuto la geniale idea di utilizzarle proprio per la verifica della genuinità delle recensioni.
Quali sono le conseguenze della nuova policy di Google?
Ora, nella sua modifica alla policy Google è stato molto chiaro: non si parla in modo ipotetico della possibilità di implementare un simile controllo in futuro. Viene utilizzato il presente, scrivendo “our enforcement technologies use machine-learning algorithms to help protect our merchants and users by keeping our shopping platforms safe“. Insomma, si lascia intendere che l’attuazione del monitoraggio tramite AI inizia esattamente in concomitanza con la modifica della policy.
E viene messa in moto in un momento in cui le intelligenze artificiali, come ammesso dalla stessa OpenAI, non sono ancora in grado di svolgere un compito simile.
Quindi, cosa dobbiamo aspettarci?
Che di fronte ai difetti delle AI in questo campo tali controlli siano, di fatto, solo uno spauracchio introdotto da Google per scoraggiare l’abuso delle intelligenze artificiali per la produzione di recensioni? Un modo per dissuadere i malintenzionati senza alcuna conseguenza reale sul web?
Potrebbe essere così e dovremmo sperare proprio questo.
Perché l’alternativa sarebbe molto peggio.
La strada di Big G: lasciare il tuo business alla mercé di una macchina
Se il monitoraggio delle recensioni dovesse essere una realtà e non solo un tentativo di Big G di fare la voce grossa, allora saremmo tutti alla mercé del giudizio di una macchina.
Un giudizio, è bene sottolinearlo, che potrebbe essere fallibile e soggetto a errori perché, al momento, le tecnologie di intelligenza artificiale sono notevolmente avanzate, ma sono ancora lontane dall’essere perfette. Specialmente quando hanno a che fare con la complessità e la sottigliezza della lingua umana.
E, allora, potresti ritrovarti con tante ottime recensioni sui tuoi prodotti o servizi eliminate da Google perché un AI ha deciso che non sono genuine. Perché, forse, i tuoi clienti le hanno scritte in modo semplice e sobrio, senza lanciarsi in complicate spiegazioni con frasi articolate e complesse. E quell’asina di intelligenza artificiale si è convinta del fatto che è stata scritta da un’altra asina come lei e non da un essere umano.
Inoltre, occorre considerare anche la questione della trasparenza e della responsabilità.
A chi dovrebbe essere attribuita la colpa quando un AI commette un errore e causa danni a terzi, in questo caso ai business online che potrebbero subire delle dure conseguenze dal punto di vista della loro autorevolezza e della loro reputazione?
Una risposta a questi interrogativi è d’obbligo e ci auguriamo di averla al più presto da Mr. Google.
Rischi legati all’utilizzo delle AI per il monitoraggio dei contenuti | Gravità |
---|---|
Eliminazione di recensioni positive genuine | ☠️ ☠️ ☠️ ☠️ |
Problemi nell’identificazione di un responsabile relativamente agli errori delle AI | ☠️ ☠️ ☠️ ☠️ |
Rinforzo di pregiudizi se l’AI classifica erroneamente certi stili di scrittura come non umani | ☠️ ☠️ ☠️ |
Accuse ingiuste di plagio a scrittori umani | ☠️ ☠️ ☠️ |
Disinformazione nel momento in cui contenuti falsi o manipolati sfuggono al sistema | ☠️ ☠️ |
Contenuti plagiati o generati da AI che passano inosservati | ☠️ ☠️ |
In conclusione
La modifica della policy di Google per combattere le recensioni false attraverso l’uso di intelligenza artificiale, alla luce delle sfide attuali e delle limitazioni intrinseche delle tecnologie AI, solleva preoccupazioni legittime riguardo alla sua efficacia, all’accuratezza e alle potenziali conseguenze per gli utenti e i business online.
È evidente che questo problema richiede una soluzione ben ponderata che vada oltre gli algoritmi. La trasparenza, l’accountability e l’implementazione di meccanismi di controllo umano possono essere fondamentali per garantire che questa iniziativa non si traduca in un danno ingiusto o in effetti collaterali indesiderati.
Le implicazioni di questa nuova policy ci ricordano che, nonostante i progressi tecnologici, l’intelligenza umana e l’etica devono rimanere al centro delle decisioni che plasmano il nostro mondo digitale. La strada verso un web più sicuro e autentico è lunga e tortuosa, e richiederà un impegno collettivo e una riflessione profonda per essere percorsa con successo.
Nel frattempo, resta l’attesa e la speranza che Google fornisca ulteriori chiarimenti e misure concrete per affrontare le numerose questioni sollevate, affinché la fiducia nel sistema non venga compromessa e l’integrità delle recensioni online possa essere preservata.
🏆 Take Aways…
- Google ha aggiornato la sua policy relativa ai giudizi sui prodotti online per contrastare le recensioni generate dalle intelligenze artificiali.
- La nuova strategia si basa sull’utilizzo di algoritmi di intelligenza artificiale per individuare recensioni false, ma le attuali tecnologie AI hanno dimostrato limiti significativi nell’identificazione accurata di contenuti generati da umani o da AI.
- L’approccio di Google potrebbe comportare l’eliminazione erronea di recensioni genuine, causando danni alla reputazione dei business online.
- Un’ulteriore preoccupazione riguarda la responsabilità e la trasparenza nel caso in cui un’AI commetta errori e causi danni a terzi.
- È necessario un approccio equilibrato che combini l’uso dell’intelligenza artificiale con il controllo umano e l’implementazione di meccanismi di responsabilità per garantire un sistema efficace e giusto.