Informazioni e contenuti

di cui ti puoi fidare.

In Google cerchiamo di trovare un equilibrio tra fornire informazioni e proteggere gli utenti e la società. È una responsabilità che prendiamo molto sul serio. Il nostro obiettivo è fornire l'accesso a informazioni e contenuti attendibili proteggendo gli utenti dai pericoli, fornendo informazioni affidabili e collaborando con esperti e organizzazioni per rendere internet un luogo più sicuro.

Proteggere dai pericoli.

Manteniamo al sicuro te e la società in generale grazie a protezioni avanzate che non solo prevengono, ma rilevano contenuti dannosi e illegali e agiscono di conseguenza.

Prevenire

Prevenire gli abusi

Per proteggere le persone dai contenuti illeciti, utilizziamo sistemi di protezione supportati dall'IA. Gmail blocca automaticamente ogni minuto quasi 10 milioni di email di spam dalle caselle di Posta in arrivo, mentre la Ricerca dispone di strumenti per evitare che il completamento automatico suggerisca query potenzialmente dannose. Il rilevamento automatico aiuta YouTube a rimuovere i contenuti dannosi in modo efficiente, efficace e su larga scala: nel secondo trimestre del 2023, il 93% dei video rimossi da YouTube per violazione delle norme è stato rilevato inizialmente in modo automatico. Implementiamo anche misure di sicurezza nei nostri strumenti di IA generativa per ridurre al minimo il rischio che vengano utilizzati per creare contenuti dannosi.

Inoltre, ciascuno dei nostri prodotti è regolato da un insieme di norme che delinea i contenuti e i comportamenti accettabili e non accettabili. Le nostre norme vengono perfezionate e aggiornate di continuo per rispondere ai rischi emergenti. Per quanto riguarda il contributo che diamo al settore dell'IA, ci affidiamo anche ai nostri principi dell'IA per orientare lo sviluppo dei prodotti e contribuire a testare e valutare ogni applicazione basata sull'IA prima che venga lanciata.

Rilevare

Rilevare i contenuti dannosi

Man mano che le tattiche dei malintenzionati si evolvono, dobbiamo impegnarci sempre di più per individuare i contenuti dannosi che finiscono sui nostri prodotti. L'IA ci sta aiutando a potenziare il rilevamento degli abusi sulle nostre piattaforme; i classificatori basati sull'IA aiutano a segnalare in modo rapido i contenuti potenzialmente dannosi affinché siano rimossi o riassegnati a un revisore. Nel 2022, l'applicazione automatizzata ci ha aiutato a rilevare e bloccare oltre 51,2 milioni di annunci che contenevano incitamento all'odio, violenza e dichiarazioni sulla salute dannose. Inoltre, i modelli linguistici di grandi dimensioni (LLM), una tipologia innovativa di IA, hanno il potenziale di ridurre in modo esponenziale il tempo necessario per rilevare e valutare i materiali dannosi, in particolare quelli provenienti da rischi nuovi ed emergenti.

Collaboriamo anche con organizzazioni esterne che segnalano i contenuti che ritengono possano essere dannosi. Sia Google che YouTube raccolgono il feedback di centinaia di segnalatori prioritari, organizzazioni di tutto il mondo con competenze culturali e specifiche che ci sottopongono i contenuti per la revisione.

Reagire

Reagire in modo appropriato

Ci affidiamo sia alle persone che alla tecnologia basata sull'IA per valutare le potenziali violazioni delle norme e per reagire in modo appropriato ai contenuti segnalati. Quando dei contenuti violano le nostre norme, possiamo limitare, rimuovere, disattivare la monetizzazione o intraprendere azioni a livello di account per ridurre futuri abusi.

Nel 2022, Google Maps ha bloccato o rimosso oltre 300 milioni di contenuti falsi, 115 milioni di recensioni che violavano le norme e 20 milioni di tentativi di creare profili delle attività falsi. Nel secondo trimestre del 2023, YouTube ha rimosso più di 14 milioni di canali e 7 milioni di video che violavano le nostre Norme della community.

Per valutare il contesto e le sfumature, riducendo allo stesso tempo il rischio di un eccesso di rimozioni, ci affidiamo a circa 20.000 revisori esperti che ricoprono diversi ruoli per applicare le nostre norme, moderare i contenuti e valutare i contenuti segnalati nei prodotti e servizi Google.

Se un creator o un editore ritiene che abbiamo preso una decisione sbagliata, ha la possibilità di presentare ricorso contro le nostre decisioni.

Fornire informazioni affidabili.

Assicuriamo l'attendibilità delle informazioni e dei contenuti sulle nostre piattaforme offrendo informazioni affidabili e strumenti all'avanguardia che ti permettono di valutare i contenuti.

Come organizziamo le informazioni

Algoritmi intelligenti

I nostri algoritmi costantemente aggiornati sono al centro di tutto quello che facciamo, da prodotti come Google Maps fino ai risultati della Ricerca. Questi algoritmi utilizzano modelli linguistici di grandi dimensioni (LLM) avanzati e indicatori come le parole chiave o l'attualità dei contenuti o dei siti web per consentirti di trovare i risultati più pertinenti e utili. Ad esempio, YouTube mette in evidenza contenuti di alta qualità provenienti da fonti autorevoli nei risultati di ricerca, nei contenuti consigliati e nei riquadri informativi per aiutare le persone a trovare notizie e informazioni puntuali, precise e utili.

Strumenti che ti aiutano a valutare i contenuti

Abbiamo creato una serie di funzionalità per aiutarti a comprendere e valutare i contenuti che i nostri algoritmi e strumenti di IA generativa hanno mostrato, assicurandoti un contesto più ampio relativo a ciò che vedi online.

Gestire i contenuti in modo responsabile su YouTube

YouTube si impegna a promuovere una piattaforma responsabile su cui gli spettatori, i creator e gli inserzionisti che formano la nostra community possano fare affidamento.
Scopri di più sul nostro approccio.

Collaborare per rendere internet un luogo più sicuro.

Collaboriamo in modo proattivo, informiamo e condividiamo le nostre risorse e le nostre tecnologie con esperti e organizzazioni.

Condividere le conoscenze

Scambiare conoscenze per garantire la sicurezza

Collaboriamo con esperti della società civile, del mondo accademico e dei governi per affrontare questioni globali come la disinformazione, la sicurezza degli annunci, l'integrità delle elezioni, l'IA nella moderazione dei contenuti e la lotta allo sfruttamento dei minori online. Inoltre, pubblichiamo i risultati delle ricerche e mettiamo a disposizione degli accademici i set di dati per favorire ulteriori progressi in questo campo.

Noi di YouTube ci rivolgiamo regolarmente al nostro comitato consultivo per giovani e famiglie indipendente in merito ad aggiornamenti di prodotti e norme, compresi i nostri principi per i giovani, nonché una serie di aggiornamenti dei prodotti incentrati sulla salute e sul benessere mentale degli adolescenti.

Condividere gli indicatori

Collaborare con gli esperti per contrastare i contenuti illegali

Inoltre, collaboriamo con dei partner per individuare e condividere indicatori chiari di contenuti illeciti, per consentirne la rimozione dall'intero ecosistema. Ogni anno, condividiamo milioni di hash di materiale pedopornografico con il National Center for Missing & Exploited Children statunitense. Partecipiamo inoltre al progetto Lantern, un programma che consente alle aziende tecnologiche di condividere indicatori in modo sicuro e responsabile. E ancora, YouTube ha co-fondato il Global Internet Forum to Counter Terrorism (GIFCT), che riunisce l'industria tecnologica, i governi, la società civile e il mondo accademico per contrastare le attività terroristiche e di estremismo violento online.

Condividere risorse

Sostenere le organizzazioni che si occupano di sicurezza

Sosteniamo le organizzazioni di tutto il mondo che si dedicano alla sicurezza online e all'alfabetizzazione mediatica attraverso programmi solidi che offrono formazione e materiali di apprendimento, come Hit Pause di YouTube, Google News Lab e Vivi internet, al meglio. Inoltre, Google e YouTube hanno annunciato una donazione di 13,2 milioni di dollari a favore dell'International Fact-Checking Network (IFCN) per sostenere la sua rete di 135 organizzazioni di fact checking. Complessivamente, le nostre collaborazioni hanno fornito competenze di verifica digitale a oltre 550.000 giornalisti e ne abbiamo formati altri 2,6 milioni online.

Condividere attivamente le API per la sicurezza

Condividiamo strumenti che aiutano altre organizzazioni a proteggere le loro piattaforme e i loro utenti da contenuti dannosi.

GSEC DI DUBLINO

Dublino, un centro per la responsabilità relativa ai contenuti

Il nostro Google Safety Engineering Center per la responsabilità relativa ai contenuti, ubicato a Dublino, è un punto di riferimento regionale per gli esperti Google impegnati a contrastare la diffusione di contenuti illegali e dannosi, nonché un luogo in cui possiamo condividere questo lavoro con legislatori, ricercatori ed enti regolatori. La nostra rete di Google Safety Engineering Center dà ai nostri team gli spazi, l'ispirazione e il supporto per sviluppare le soluzioni di prossima generazione che contribuiranno a migliorare la sicurezza online.

Un'esperienza su internet più utile e sicura, per definizione.

L'impatto del nostro lavoro per fornire informazioni e contenuti affidabili non è mai stato così importante. Per far fronte alle sfide della moderazione dei contenuti, continueremo a investire nello sviluppo e nel miglioramento di norme, prodotti e processi che garantiscano la tua tranquillità e rendano l'esperienza online più sicura per tutti.

Scopri in che modo Google
protegge tutti gli utenti quando sono online.