Informazioni e contenuti
di cui ti puoi fidare
In Google cerchiamo di trovare un equilibrio tra fornire informazioni e proteggere gli utenti e la società. È una responsabilità che prendiamo molto sul serio. Il nostro obiettivo è fornire l'accesso a informazioni e contenuti attendibili proteggendo gli utenti dai pericoli, fornendo informazioni affidabili e collaborando con esperti e organizzazioni per rendere internet un luogo più sicuro.
Ti proteggiamo dai pericoli
Prevenzione degli abusi
Per proteggere le persone dai contenuti illeciti, utilizziamo sistemi di protezione basati sul machine learning. Gmail blocca automaticamente ogni minuto quasi 10 milioni di email di spam dalle caselle di Posta in arrivo, mentre la Ricerca dispone di strumenti per evitare che il completamento automatico suggerisca query potenzialmente dannose. Il rilevamento automatico aiuta YouTube a rimuovere i contenuti dannosi in modo efficiente, efficace e su larga scala: nel secondo trimestre del 2023, il 93% dei video rimossi da YouTube per violazione delle norme è stato rilevato inizialmente in modo automatico. Implementiamo anche misure di sicurezza nei nostri strumenti di AI generativa per ridurre al minimo il rischio che vengano utilizzati per creare contenuti dannosi.
Inoltre, ciascuno dei nostri prodotti è regolato da un insieme di norme che delinea i contenuti e i comportamenti accettabili e non accettabili. Le nostre norme vengono perfezionate e aggiornate di continuo per rispondere ai rischi emergenti. Per quanto riguarda il contributo che diamo al settore dell'AI, ci affidiamo anche ai nostri principi dell'AI per orientare lo sviluppo dei prodotti e contribuire a testare e valutare ogni applicazione basata sull'AI prima che venga lanciata.
Rileviamo i contenuti dannosi
Man mano che le tattiche dei malintenzionati si evolvono, dobbiamo impegnarci sempre di più per individuare i contenuti dannosi che finiscono sui nostri prodotti. L'AI ci sta aiutando a potenziare il rilevamento degli abusi sulle nostre piattaforme; i classificatori basati sull'AI aiutano a segnalare in modo rapido i contenuti potenzialmente dannosi affinché siano rimossi o riassegnati a un revisore umano. Nel 2022, l'applicazione automatizzata ci ha aiutato a rilevare e bloccare oltre 51,2 milioni di annunci che contenevano incitamento all'odio, violenza e dichiarazioni sulla salute dannose. Inoltre, i modelli linguistici di grandi dimensioni (LLM), una tipologia innovativa di AI, hanno il potenziale di ridurre in modo esponenziale il tempo necessario per rilevare e valutare i materiali dannosi, in particolare quelli provenienti da rischi nuovi ed emergenti.
Collaboriamo anche con organizzazioni esterne che segnalano i contenuti che ritengono possano essere dannosi. Sia Google che YouTube raccolgono il feedback di centinaia di segnalatori prioritari, organizzazioni di tutto il mondo con competenze culturali e specifiche che ci sottopongono i contenuti per la revisione.
Reagiamo in modo appropriato
Ci affidiamo sia alle persone che alla tecnologia basata sull'AI per valutare le potenziali violazioni delle norme e per reagire in modo appropriato ai contenuti segnalati. Quando dei contenuti violano le nostre norme, possiamo limitare, rimuovere, disattivare la monetizzazione o intraprendere azioni a livello di account per ridurre futuri abusi.
Nel 2022, Google Maps ha bloccato o rimosso oltre 300 milioni di contenuti falsi, 115 milioni di recensioni che violavano le norme e 20 milioni di tentativi di creare profili delle attività falsi. Nel secondo trimestre del 2023, YouTube ha rimosso oltre 14 milioni di canali e 7 milioni di video per violazione delle nostre Norme della community .
Per valutare il contesto e le sfumature, riducendo allo stesso tempo il rischio di un eccesso di rimozioni, ci affidiamo a circa 20.000 revisori esperti che ricoprono diversi ruoli per applicare le nostre norme, moderare i contenuti e valutare i contenuti segnalati nei prodotti e servizi Google.
Se un creator o un editore ritiene che abbiamo preso una decisione sbagliata, ha la possibilità di presentare ricorso contro le nostre decisioni.
Forniamo informazioni
affidabili
Algoritmi intelligenti
Strumenti che ti aiutano a valutare i contenuti
Gestire i contenuti
in modo responsabile su YouTube
Rimuoviamo i contenuti che violano le nostre norme grazie a una combinazione di persone e tecnologia.
Valorizziamo le fonti autorevoli di notizie e informazioni e forniamo contesto agli spettatori.
Gestiamo responsabilmente i contenuti riducendo la diffusione di contenuti che rappresentano casi limite e disinformazione dannosa.
Inoltre, premiamo i nostri creator fidati tramite il Programma partner di YouTube (YPP) condividendo le entrate pubblicitarie e diverse altre fonti di reddito. Nei tre anni precedenti a giugno 2022, tramite YPP sono stati corrisposti più di 50 miliardi di dollari a creator, artisti e aziende del settore dei media.
Collaboriamo per rendere
internet un luogo più sicuro
Scambiamo conoscenze per la tua sicurezza
Collaboriamo con esperti della società civile, del mondo accademico e dei governi per affrontare questioni globali come la disinformazione, la sicurezza degli annunci, l'integrità delle elezioni, l'AI nella moderazione dei contenuti e la lotta allo sfruttamento dei minori online. Inoltre, pubblichiamo i risultati delle ricerche e mettiamo a disposizione degli accademici i set di dati per favorire ulteriori progressi in questo campo.
In YouTube, consultiamo regolarmente il nostro comitato consultivo per giovani e famiglie indipendente per gli aggiornamenti di prodotti e norme, compresi i nostri principi per i giovani , nonché una serie di aggiornamenti dei prodotti incentrati sulla salute mentale e sul benessere degli adolescenti.
Collaboriamo con gli esperti per contrastare i contenuti illegali
Inoltre, collaboriamo con dei partner per individuare e condividere indicatori chiari di contenuti illeciti, per consentirne la rimozione dall'intero ecosistema. Ogni anno, condividiamo milioni di hash di materiale pedopornografico con il National Center for Missing & Exploited Children statunitense. Partecipiamo inoltre al progetto Lantern, un programma che consente alle aziende tecnologiche di condividere indicatori in modo sicuro e responsabile. E ancora, YouTube ha co-fondato il Global Internet Forum to Counter Terrorism (GIFCT), che riunisce l'industria tecnologica, i governi, la società civile e il mondo accademico per contrastare le attività terroristiche e di estremismo violento online.
Sosteniamo le organizzazioni che si dedicano alla sicurezza
Supportiamo le organizzazioni di tutto il mondo che si dedicano alla sicurezza online e all'alfabetizzazione mediatica attraverso programmi solidi che offrono formazione e materiali di apprendimento, come "Vivi internet, al meglio", "Premi Pausa" di YouTube e "Google News Lab". Inoltre, Google e YouTube hanno annunciato una donazione di 13,2 milioni di dollari a favore dell'International Fact-Checking Network (IFCN) per sostenere la sua rete di 135 organizzazioni di fact checking. Complessivamente, le nostre collaborazioni hanno fornito competenze di verifica digitale a oltre 550.000 giornalisti e ne abbiamo formati altri 2,6 milioni online.