Seguici su

AdvTech

Google, il rapporto sulla sicurezza degli annunci del 2023

Progressi e le sfide nell’applicazione delle norme pubblicitarie di Google nel mondo digitale. L’intelligenza artificiale generativa ha rivoluzionato il settore, offrendo soluzioni innovative ma anche nuove sfide. Attraverso l’integrazione di Large Language Models, Google sta affrontando con determinazione le minacce emergenti, garantendo un ambiente pubblicitario online sicuro e affidabile

Avatar

Pubblicato

il

Google, sede di San Francisco, USA - Google, il rapporto sulla sicurezza degli annunci del 2023
Google, sede di San Francisco, USA (© Depositphotos)

Miliardi di persone in tutto il mondo si affidano ai prodotti Google per fornire informazioni pertinenti e affidabili, inclusi gli annunci. Ecco perché migliaia di persone lavorano 24 ore su 24 per salvaguardare l’ecosistema della pubblicità digitale. Google pubblica il rapporto annuale sulla sicurezza degli annunci per condividere i progressi che sono stati fatti nell’applicazione delle norme per inserzionisti ed editori e per ritenersi responsabili nel nostro lavoro di mantenimento di un Internet sano supportato dalla pubblicità.

La tendenza chiave nel 2023 è stata l’impatto dell’intelligenza artificiale generativa. Questa nuova tecnologia ha introdotto cambiamenti significativi ed entusiasmanti nel settore della pubblicità digitale, dall’ottimizzazione delle prestazioni all’editing delle immagini. Naturalmente, l’intelligenza artificiale generativa presenta anche nuove sfide. Prendiamo sul serio queste sfide e illustreremo il lavoro che stiamo svolgendo per affrontarle direttamente.

Cosa altrettanto importante, l’intelligenza artificiale generativa rappresenta un’opportunità unica per migliorare in modo significativo i nostri sforzi di applicazione delle norme. I nostri team stanno adottando questa tecnologia trasformativa, in particolare i Large Language Models (LLM), in modo da poter meglio garantire la sicurezza delle persone online.

La generazione AI rafforza l’applicazione delle norme

I nostri team di sicurezza Google utilizzano da tempo l’apprendimento automatico basato sull’intelligenza artificiale per applicare le nostre policy su larga scala. È così che, per anni, siamo riusciti a rilevare e bloccare miliardi di annunci dannosi prima ancora che una persona li veda. Ma, sebbene siano ancora altamente sofisticati, questi modelli di machine learning hanno storicamente bisogno di essere addestrati in modo estensivo: spesso si basano su centinaia di migliaia, se non milioni di esempi di contenuti in violazione.

Gli LLM, d’altra parte, sono in grado di rivedere e interpretare rapidamente contenuti ad alto volume, catturando anche importanti sfumature all’interno di tali contenuti. Queste capacità di ragionamento avanzate hanno già portato a decisioni di applicazione su scala più ampia e più precise su alcune delle nostre politiche più complesse. Prendiamo, ad esempio, la nostra politica contro le dichiarazioni finanziarie inaffidabili che include annunci che promuovono programmi per arricchirsi rapidamente. I cattivi attori dietro questo tipo di pubblicità sono diventati più sofisticati. Modificano le loro tattiche e personalizzano gli annunci su nuovi servizi o prodotti finanziari, come consigli sugli investimenti o valute digitali, per truffare gli utenti.

A dire il vero, i modelli tradizionali di machine learning sono addestrati per rilevare queste violazioni delle policy. Tuttavia, la natura frenetica e in continua evoluzione delle tendenze finanziarie rende, a volte, più difficile distinguere tra servizi legittimi e falsi e adattare rapidamente i nostri sistemi automatizzati di controllo per combattere le truffe. Gli LLM sono più capaci di riconoscere rapidamente le nuove tendenze nei servizi finanziari, identificare i modelli di cattivi attori che abusano di tali tendenze e distinguere un’attività legittima da una truffa per arricchirsi rapidamente. Ciò ha aiutato i nostri team a diventare ancora più agili nell’affrontare minacce emergenti di ogni tipo.

Abbiamo appena iniziato a sfruttare la potenza dei LLM per la sicurezza degli annunci. Gemini, lanciato pubblicamente lo scorso anno, è la modalità AI più potente di Google. Siamo entusiasti di aver iniziato a integrare le sue sofisticate capacità di ragionamento nelle nostre iniziative di sicurezza e applicazione delle norme.

Il nostro lavoro per prevenire frodi e truffe

Nel 2023, le truffe e le frodi su tutte le piattaforme online sono in aumento . I malintenzionati evolvono costantemente le loro tattiche per manipolare la pubblicità digitale al fine di truffare persone e aziende legittimate. Per contrastare queste minacce in continua evoluzione, abbiamo aggiornato rapidamente le policy, implementato team di controllo a risposta rapida e affinato le nostre tecniche di rilevamento.

  • A novembre abbiamo lanciato le nostre norme sulla pubblicazione di annunci limitati , progettate per proteggere gli utenti limitando la portata degli inserzionisti con cui abbiamo meno familiarità. In base a questa norma, abbiamo implementato un periodo di “conoscenza” per gli inserzionisti che non hanno ancora una comprovata esperienza di buon comportamento, durante il quale le impressioni per i loro annunci potrebbero essere limitate in determinate circostanze, ad esempio , quando esiste una relazione poco chiara tra l’inserzionista e un brand a cui fa riferimento. In definitiva, la pubblicazione di annunci limitati, che è ancora nelle sue fasi iniziali, aiuterà a garantire che gli inserzionisti ben intenzionati siano in grado di creare fiducia con gli utenti, limitando al contempo la portata dei malintenzionati e riducendo il rischio di truffe e annunci fuorvianti.
  • Una parte fondamentale della protezione delle persone dai danni online dipende dalla nostra capacità di rispondere rapidamente alle nuove tendenze di abuso. Verso la fine del 2023 e fino al 2024, abbiamo dovuto affrontare una campagna mirata di annunci con le sembianze di personaggi pubblici per truffare gli utenti, spesso attraverso l’uso di deepfake. Quando abbiamo rilevato questa minaccia, abbiamo creato un team dedicato per rispondere immediatamente. Abbiamo individuato modelli di comportamento dei malintenzionati, addestrato i nostri modelli di applicazione automatizzata a rilevare annunci simili e abbiamo iniziato a rimuoverli su larga scala. Abbiamo inoltre aggiornato la nostra politica sulle false dichiarazioni per consentirci di sospendere rapidamente gli account dei soggetti malintenzionati.

Nel complesso, abbiamo bloccato o rimosso 206,5 milioni di annunci pubblicitari per violazione della nostra politica sulla rappresentazione ingannevole, che include molte tattiche di truffa, e 273,4 milioni di annunci pubblicitari per violazione della nostra politica sui servizi finanziari. Abbiamo inoltre bloccato o rimosso oltre 1 miliardo di annunci pubblicitari per aver violato la nostra politica contro l’abuso della rete pubblicitaria, che include la promozione di malware.

La lotta contro le pubblicità truffa è uno sforzo continuo, poiché vediamo i malintenzionati operare con maggiore sofisticatezza, su scala più ampia, utilizzando nuove tattiche come i deepfake per ingannare le persone. Continueremo a dedicare ampie risorse, facendo investimenti significativi nella tecnologia di rilevamento e collaborando con organizzazioni come Global Anti-Scam Alliance e Stop Scams UK per facilitare la condivisione delle informazioni e proteggere i consumatori in tutto il mondo.

Investire nell’integrità elettorale

Gli annunci politici sono una parte importante delle elezioni democratiche. Candidati e partiti utilizzano gli annunci pubblicitari per aumentare la consapevolezza, condividere informazioni e coinvolgere potenziali elettori. In un anno caratterizzato da numerose elezioni importanti in tutto il mondo, vogliamo assicurarci che gli elettori continuino a fidarsi degli annunci elettorali che potrebbero vedere sulle nostre piattaforme. Ecco perché da tempo imponiamo requisiti di verifica dell’identità e trasparenza per gli inserzionisti elettorali, nonché restrizioni su come questi inserzionisti possono indirizzare i propri annunci elettorali. Tutti gli annunci elettorali devono includere anche l’informativa “pagato da” e sono inseriti nel nostro rapporto sulla trasparenza disponibile al pubblico . Nel 2023, abbiamo verificato più di 5.000 nuovi inserzionisti elettorali e rimosso più di 7,3 milioni di annunci elettorali provenienti da inserzionisti che non hanno completato la verifica.

L’anno scorso siamo stati la prima azienda tecnologica a lanciare un nuovo requisito di divulgazione per gli annunci elettorali contenenti contenuti sintetici. Poiché sempre più inserzionisti sfruttano il potere e le opportunità dell’intelligenza artificiale, vogliamo assicurarci di continuare a fornire alle persone la maggiore trasparenza e le informazioni di cui hanno bisogno per prendere decisioni informate.

Inoltre, abbiamo continuato ad applicare le nostre norme contro gli annunci che promuovono affermazioni elettorali palesemente false che potrebbero minare la fiducia o la partecipazione ai processi democratici.

Numeri complessivi del 2023

Il nostro obiettivo è individuare annunci dannosi e sospendere gli account fraudolenti prima che arrivino sulle nostre piattaforme o rimuoverli immediatamente una volta rilevati. L’intelligenza artificiale sta migliorando la nostra applicazione delle norme su tutti i fronti. Nel 2023, abbiamo bloccato o rimosso oltre 5,5 miliardi di annunci, in leggero aumento rispetto all’anno precedente, e 12,7 milioni di account di inserzionisti, quasi il doppio rispetto all’anno precedente. Allo stesso modo, lavoriamo per proteggere gli inserzionisti e le persone rimuovendo i nostri annunci dalle pagine e dai siti dei publisher che violano le nostre norme, come contenuti sessualmente espliciti o prodotti pericolosi. Nel 2023, abbiamo bloccato o limitato la pubblicazione degli annunci su oltre 2,1 miliardi di pagine di editori, in leggero aumento rispetto al 2022. Stiamo anche migliorando nel contrastare violazioni diffuse o gravi. Abbiamo adottato misure più ampie a livello di sito su oltre 395.000 siti di editori, in netto aumento rispetto al 2022.

Per mettere in prospettiva l’impatto dell’intelligenza artificiale su questo lavoro: l’anno scorso oltre il 90% dell’applicazione a livello di pagina degli editori è iniziata con l’uso di modelli di apprendimento automatico, inclusi i nostri ultimi LLM. Naturalmente, qualsiasi inserzionista o editore può comunque presentare ricorso contro un’azione coercitiva se ritiene che abbiamo sbagliato. I nostri team lo esamineranno e, nei casi in cui troviamo errori, lo utilizzeranno per migliorare i nostri sistemi.

Rimanere agili e guardare avanti

Quando si parla di sicurezza degli annunci, molto può cambiare nel corso di un anno: dall’introduzione di nuove tecnologie come l’intelligenza artificiale generativa alle nuove tendenze di abuso e ai conflitti globali. E lo spazio pubblicitario digitale deve essere agile e pronto a reagire. Ecco perché sviluppiamo continuamente nuove norme, rafforziamo i nostri sistemi di applicazione, approfondiamo la collaborazione intersettoriale e offriamo maggiore controllo a persone , editori e inserzionisti .

Nel 2023, ad esempio, abbiamo lanciato il Centro per la trasparenza degli annunci , un hub ricercabile di tutti gli annunci di inserzionisti verificati, che aiuta le persone a saperne di più in modo rapido e semplice sugli annunci che vedono su Ricerca, YouTube e Display. Abbiamo inoltre aggiornato i nostri controlli di idoneità per rendere più semplice e veloce per gli inserzionisti l’esclusione degli argomenti che desiderano evitare su YouTube e nell’inventario display. Nel complesso, abbiamo apportato 31 aggiornamenti alle nostre norme relative ad annunci e editori.

Anche se non sappiamo ancora cosa ci riserva il resto del 2024, siamo fiduciosi che i nostri investimenti in politiche, rilevamento e applicazione delle norme ci prepareranno per qualsiasi sfida futura.

Clicca per commentare

Tu cosa ne pensi?

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *