Passa ai contenuti

Scudo blu con icona G bianca

Informazioni e contenuti di cui ti puoi fidare

In Google cerchiamo di trovare un equilibrio tra fornire informazioni e proteggere gli utenti e la società. È una responsabilità che prendiamo molto sul serio. Il nostro obiettivo è fornire l'accesso a informazioni e contenuti attendibili proteggendo gli utenti dai pericoli, fornendo informazioni affidabili e collaborando con esperti e organizzazioni per rendere internet un luogo più sicuro.

Ti proteggiamo dai pericoli

Manteniamo al sicuro te e la società in generale grazie a protezioni avanzate che non solo prevengono, ma rilevano contenuti dannosi e illegali e agiscono di conseguenza.

Prevenzione

Prevenzione degli abusi

Per proteggere le persone dai contenuti illeciti, utilizziamo sistemi di protezione basati sul machine learning. Gmail blocca automaticamente ogni minuto quasi 10 milioni di email di spam dalle caselle di Posta in arrivo, mentre la Ricerca dispone di strumenti per evitare che il completamento automatico suggerisca query potenzialmente dannose. Il rilevamento automatico aiuta YouTube a rimuovere i contenuti dannosi in modo efficiente, efficace e su larga scala: nel secondo trimestre del 2023, il 93% dei video rimossi da YouTube per violazione delle norme è stato rilevato inizialmente in modo automatico. Implementiamo anche misure di sicurezza nei nostri strumenti di AI generativa per ridurre al minimo il rischio che vengano utilizzati per creare contenuti dannosi.

Inoltre, ciascuno dei nostri prodotti è regolato da un insieme di norme che delinea i contenuti e i comportamenti accettabili e non accettabili. Le nostre norme vengono perfezionate e aggiornate di continuo per rispondere ai rischi emergenti. Per quanto riguarda il contributo che diamo al settore dell'AI, ci affidiamo anche ai nostri principi dell'AI per orientare lo sviluppo dei prodotti e contribuire a testare e valutare ogni applicazione basata sull'AI prima che venga lanciata.

Immagine di una scheda che passa attraverso un quadrato blu.

Rilevamento

Rileviamo i contenuti dannosi

Man mano che le tattiche dei malintenzionati si evolvono, dobbiamo impegnarci sempre di più per individuare i contenuti dannosi che finiscono sui nostri prodotti. L'AI ci sta aiutando a potenziare il rilevamento degli abusi sulle nostre piattaforme; i classificatori basati sull'AI aiutano a segnalare in modo rapido i contenuti potenzialmente dannosi affinché siano rimossi o riassegnati a un revisore umano. Nel 2022, l'applicazione automatizzata ci ha aiutato a rilevare e bloccare oltre 51,2 milioni di annunci che contenevano incitamento all'odio, violenza e dichiarazioni sulla salute dannose. Inoltre, i modelli linguistici di grandi dimensioni (LLM), una tipologia innovativa di AI, hanno il potenziale di ridurre in modo esponenziale il tempo necessario per rilevare e valutare i materiali dannosi, in particolare quelli provenienti da rischi nuovi ed emergenti.

Collaboriamo anche con organizzazioni esterne che segnalano i contenuti che ritengono possano essere dannosi. Sia Google che YouTube raccolgono il feedback di centinaia di segnalatori prioritari, organizzazioni di tutto il mondo con competenze culturali e specifiche che ci sottopongono i contenuti per la revisione.

Immagine di lenti d'ingrandimento che circondano cerchi con un lucchetto rosso, un segno di spunta verde, un mondo blu e un punto esclamativo giallo.

Reagire

Reagiamo in modo appropriato

Ci affidiamo sia alle persone che alla tecnologia basata sull'AI per valutare le potenziali violazioni delle norme e per reagire in modo appropriato ai contenuti segnalati. Quando dei contenuti violano le nostre norme, possiamo limitare, rimuovere, disattivare la monetizzazione o intraprendere azioni a livello di account per ridurre futuri abusi.

Nel 2022, Google Maps ha bloccato o rimosso oltre 300 milioni di contenuti falsi, 115 milioni di recensioni che violavano le norme e 20 milioni di tentativi di creare profili delle attività falsi. Nel secondo trimestre del 2023, YouTube ha rimosso oltre 14 milioni di canali e 7 milioni di video per violazione delle nostre Norme della community .

Per valutare il contesto e le sfumature, riducendo allo stesso tempo il rischio di un eccesso di rimozioni, ci affidiamo a circa 20.000 revisori esperti che ricoprono diversi ruoli per applicare le nostre norme, moderare i contenuti e valutare i contenuti segnalati nei prodotti e servizi Google.

Se un creator o un editore ritiene che abbiamo preso una decisione sbagliata, ha la possibilità di presentare ricorso contro le nostre decisioni.

Scudo blu con la G di Google circondato da cerchi con profilo verde e stella gialla.

Forniamo informazioni
affidabili

Assicuriamo l'attendibilità delle informazioni e dei contenuti sulle nostre piattaforme offrendo informazioni affidabili e strumenti all'avanguardia che ti permettono di valutare i contenuti.
Finestra del browser con un segno di spunta verde e linee tratteggiate collegate a rettangoli blu.
Come organizziamo le informazioni

Algoritmi intelligenti

I nostri algoritmi vengono costantemente aggiornati e sono al centro di tutto ciò che facciamo, da prodotti come Google Maps fino ai risultati della Ricerca. Questi algoritmi utilizzano modelli linguistici di grandi dimensioni (LLM) avanzati e indicatori come le parole chiave o l'attualità dei contenuti o dei siti web per consentirti di trovare i risultati più pertinenti e utili. Ad esempio, YouTube mette in evidenza contenuti di alta qualità provenienti da fonti autorevoli nei risultati di ricerca, nei contenuti consigliati e nei riquadri informativi per aiutare le persone a trovare notizie e informazioni puntuali, precise e utili.

Strumenti che ti aiutano a valutare i contenuti

Abbiamo creato una serie di funzionalità per aiutarti a comprendere e valutare i contenuti che i nostri algoritmi e strumenti di AI generativa ti mostrano, assicurandoti un contesto più ampio relativo a ciò che vedi online.

Gestire i contenuti
in modo responsabile su YouTube

YouTube si impegna a promuovere una piattaforma responsabile su cui gli spettatori, i creator e gli inserzionisti che formano la nostra community possano fare affidamento. Scopri di più sul nostro approccio.

Rimozione

Rimuoviamo i contenuti che violano le nostre norme grazie a una combinazione di persone e tecnologia.

Finestra del browser coperta a metà da uno schema di una linea tratteggiata blu e di un quadrato.

Risalto

Valorizziamo le fonti autorevoli di notizie e informazioni e forniamo contesto agli spettatori.

Riduzione

Gestiamo responsabilmente i contenuti riducendo la diffusione di contenuti che rappresentano casi limite e disinformazione dannosa.

Premiazione

Inoltre, premiamo i nostri creator fidati tramite il Programma partner di YouTube (YPP) condividendo le entrate pubblicitarie e diverse altre fonti di reddito. Nei tre anni precedenti a giugno 2022, tramite YPP sono stati corrisposti più di 50 miliardi di dollari a creator, artisti e aziende del settore dei media.

Collaboriamo per rendere
internet un luogo più sicuro

Collaboriamo in modo proattivo, informiamo e condividiamo le nostre risorse e le nostre tecnologie con esperti e organizzazioni.

Condivisione di conoscenze

Scambiamo conoscenze per la tua sicurezza

Collaboriamo con esperti della società civile, del mondo accademico e dei governi per affrontare questioni globali come la disinformazione, la sicurezza degli annunci, l'integrità delle elezioni, l'AI nella moderazione dei contenuti e la lotta allo sfruttamento dei minori online. Inoltre, pubblichiamo i risultati delle ricerche e mettiamo a disposizione degli accademici i set di dati per favorire ulteriori progressi in questo campo.

In YouTube, consultiamo regolarmente il nostro comitato consultivo per giovani e famiglie indipendente per gli aggiornamenti di prodotti e norme, compresi i nostri principi per i giovani , nonché una serie di aggiornamenti dei prodotti incentrati sulla salute mentale e sul benessere degli adolescenti.

Un modello di un atomo con uno scudo blu e una G bianca al centro, circondato da un lucchetto blu, una valigetta verde, un globo giallo e un punto esclamativo rosso.

Condivisione di indicatori

Collaboriamo con gli esperti per contrastare i contenuti illegali

Inoltre, collaboriamo con dei partner per individuare e condividere indicatori chiari di contenuti illeciti, per consentirne la rimozione dall'intero ecosistema. Ogni anno, condividiamo milioni di hash di materiale pedopornografico con il National Center for Missing & Exploited Children statunitense. Partecipiamo inoltre al progetto Lantern, un programma che consente alle aziende tecnologiche di condividere indicatori in modo sicuro e responsabile. E ancora, YouTube ha co-fondato il Global Internet Forum to Counter Terrorism (GIFCT), che riunisce l'industria tecnologica, i governi, la società civile e il mondo accademico per contrastare le attività terroristiche e di estremismo violento online.

Scudo rosso circondato da uno schema che mostra finestre del browser e un rettangolo rosso con l'immagine di un globo.

Condivisione di risorse

Sosteniamo le organizzazioni che si dedicano alla sicurezza

Supportiamo le organizzazioni di tutto il mondo che si dedicano alla sicurezza online e all'alfabetizzazione mediatica attraverso programmi solidi che offrono formazione e materiali di apprendimento, come "Vivi internet, al meglio", "Premi Pausa" di YouTube e "Google News Lab". Inoltre, Google e YouTube hanno annunciato una donazione di 13,2 milioni di dollari a favore dell'International Fact-Checking Network (IFCN) per sostenere la sua rete di 135 organizzazioni di fact checking. Complessivamente, le nostre collaborazioni hanno fornito competenze di verifica digitale a oltre 550.000 giornalisti e ne abbiamo formati altri 2,6 milioni online.

Scudo blu con un segno di spunta sovrapposto a una mappa del mondo con linee e punti.

Condivisione attiva di
tecnologie per la sicurezza

Condividiamo interfacce di programmazione delle applicazioni (API) che aiutano altre organizzazioni a proteggere le loro piattaforme e i loro utenti da contenuti dannosi.
Edificio in un cerchio blu circondato da cerchi rossi, gialli, verdi e blu con lucchetti al centro.
GSEC DI DUBLINO

Dublino, un centro per la responsabilità relativa ai contenuti

Il nostro Google Safety Engineering Center per la responsabilità relativa ai contenuti, ubicato a Dublino, è un hub regionale per gli esperti Google che lavorano per contrastare la diffusione di contenuti illegali e dannosi, nonché un luogo in cui possiamo condividere questo lavoro con legislatori, ricercatori e regolatori. La nostra rete di Google Safety Engineering Center dà ai nostri team gli spazi, l'ispirazione e il supporto per sviluppare le soluzioni di nuova generazione che contribuiranno a migliorare la sicurezza online.

Un'esperienza su internet più utile e sicura
, per definizione

L'impatto del nostro lavoro per fornire informazioni e contenuti affidabili non è mai stato così importante. Per far fronte alle sfide della moderazione dei contenuti, continueremo a investire nello sviluppo e nel miglioramento di norme, prodotti e processi che garantiscano la tua tranquillità e rendano l'esperienza online più sicura per tutti.