Informationen und Inhalte,
denen Sie vertrauen können.
Unser Ziel bei Google ist es, die Informationen der Welt für alle Menschen zugänglich und nutzbar zu machen – gleichzeitig aber auch alle Menschen und die Gesellschaft zu schützen. Wir nehmen unsere Verantwortung sehr ernst. Wir tun unser Bestes, um unsere Nutzerinnen und Nutzer zu schützen, ihnen zuverlässige Informationen zu liefern und mit Fachleuten und Organisationen zusammenzuarbeiten, um das Internet für alle sicherer zu machen.
Schutz vor schädlichen Inhalten.
Missbrauch verhindern
Wir schützen Menschen mithilfe von maschinellem Lernen vor missbräuchlichen Inhalten. Gmail blockiert automatisch fast 10 Millionen Spam-E-Mails pro Minute, und Tools der Google Suche verhindern, dass die automatische Vervollständigung potenziell schädliche Suchanfragen vorschlägt. Die automatische Erkennung trägt dazu bei, dass große Mengen schädlicher Inhalte auf YouTube effizient entfernt werden können. Im zweiten Quartal 2023 wurden 93 % der von YouTube aufgrund von Richtlinienverstößen entfernten Videos zuerst automatisch erkannt. Außerdem bauen wir Sicherheitsvorkehrungen in unsere auf generativer KI basierenden Tools ein, um das Risiko zu minimieren, dass sie zum Erstellen schädlicher Inhalte verwendet werden.
Darüber hinaus gelten für alle unsere Produkte bestimmte Richtlinien , in denen akzeptable sowie inakzeptable Inhalte und Verhaltensweisen festgelegt werden. Unsere Richtlinien werden ständig evaluiert, damit wir auf neue Risiken angemessen reagieren können. Bei der Entwicklung von Produkten stützen wir uns auch auf unsere KI-Grundsätze . Jede KI-Anwendung wird getestet und bewertet, bevor sie auf den Markt kommt.
Schädliche Inhalte erkennen
Da sich die Taktiken böswilliger Akteurinnen und Akteure weiterentwickeln, müssen wir noch mehr als bisher daran arbeiten, schädliche Inhalte zu erkennen. Dabei hilft uns künstliche Intelligenz. KI-gestützte Klassifikatoren tragen dazu bei, potenziell schädliche Inhalte schnell zu erkennen und zu entfernen oder zur manuellen Überprüfung an ein Team weiterzuleiten. Im Jahr 2022 konnten wir dank automatisierter Maßnahmen mehr als 51,2 Millionen Werbeanzeigen mit Hassrede, Gewalt und schädlichen gesundheitsbezogenen Behauptungen erkennen und blockieren. Außerdem nutzen wir die bahnbrechende KI-Technologie der „Large Language Models“. Sie ermöglichen es, die Zeit, die es zur Erkennung und Bewertung von schädlichem Material braucht, exponentiell zu verkürzen – insbesondere in Bezug auf neue Risiken.
Wir arbeiten auch mit externen Organisationen zusammen, die Inhalte melden, wenn diese ihrer Meinung nach schädlich sein könnten. Sowohl Google als auch YouTube erhalten Feedback von Hunderten von „Priority Flaggern“, also von Organisationen auf der ganzen Welt, die über das nötige kulturelle und inhaltliche Know-how verfügen und uns Inhalte zur Prüfung weiterleiten.
Angemessen reagieren
Wir verlassen uns sowohl auf Menschen als auch auf KI-gestützte Technologie, um potenzielle Richtlinienverstöße zu bewerten und angemessen auf gemeldete Inhalte zu reagieren. Wenn ein Inhalt gegen unsere Richtlinien verstößt, können wir ihn einschränken, entfernen, die Monetarisierung deaktivieren oder Maßnahmen auf Kontoebene ergreifen, um zukünftigen Missbrauch zu verhindern.
Im Jahr 2022 wurden in Google Maps über 300 Millionen gefälschte Inhalte gesperrt, 115 Millionen Rezensionen, die gegen die Richtlinien verstießen, entfernt und 20 Millionen Versuche, gefälschte Unternehmensprofile zu erstellen, verhindert. Im zweiten Quartal 2023 hat YouTube über 14 Millionen Kanäle und 7 Millionen Videos entfernt, weil sie gegen unsere Community-Richtlinien verstoßen haben.
Um Kontext und Nuancen zu bewerten und gleichzeitig das Risiko einer übermäßigen Entfernung zu verringern, setzen wir auf rund 20.000 fachkundige Prüferinnen und Prüfer, die in verschiedenen Rollen unsere Richtlinien durchsetzen, Inhalte moderieren und gemeldete Inhalte in allen Produkten und Diensten von Google bewerten.
Wenn eine Creatorin bzw. ein Creator oder Publisher der Meinung ist, dass wir eine falsche Entscheidung getroffen haben, gibt es die Möglichkeit, Einspruch einzulegen.
Wir liefern Ihnen
verlässliche Informationen.
Intelligente Algorithmen
Tools zur einfacheren Bewertung von Inhalten.
Verantwortungsvoller Umgang
mit Inhalten auf YouTube.
Wir entfernen Inhalte, die gegen unsere Richtlinien verstoßen, mithilfe von Fachleuten und Technologien.
Wir machen zuverlässige Quellen für Nachrichten und Informationen sichtbar und bieten Zuschauerinnen und Zuschauern zusätzlichen Kontext.
Wir schränken die Verbreitung von grenzwertigen Inhalten und potenziell schädlichen Falschinformationen dort ein, wo wir Inhalte vorstellen oder empfehlen.
Und wir belohnen zuverlässige Creatorinnen und Creator, die über das YouTube-Partnerprogramm (YPP) Einnahmen mit ihren Videos erzielen können. So konnten wir in den drei Jahren vor Juni 2022 über das YPP mehr als 50 Milliarden Dollar an Creatorinnen und Creator, Künstlerinnen und Künstler sowie Medienunternehmen auszahlen.
Kooperationen für
mehr Sicherheit im Internet.
Wissensaustausch für mehr Sicherheit
Wir arbeiten mit Fachleuten aus der Zivilgesellschaft, der Wissenschaft und von öffentlichen Einrichtungen zusammen, um globale Themen wie Falschinformationen, die Sicherheit von Werbung, die Integrität von Wahlen und Wahlergebnissen, die Nutzung von KI bei der Moderation von Inhalten und die Bekämpfung der Ausbeutung von Kindern im Internet anzugehen. Außerdem veröffentlichen wir Forschungsergebnisse und stellen Akademikerinnen und Akademikern Datensätze zur Verfügung, um den Fortschritt auf diesen Gebieten zu fördern.
Bei YouTube beraten wir uns regelmäßig mit unserem unabhängigen Beratungsteam zum Thema Kinder, Jugendliche und Familien über Produkt- und Richtlinienupdates, einschließlich unserer Grundsätze für den Schutz von Kindern und Jugendlichen online , sowie über eine Reihe von Produktupdates , die sich auf die psychische Gesundheit und das Wohlbefinden von Jugendlichen konzentrieren.
Mit Fachleuten gemeinsam gegen illegale Inhalte vorgehen
Wir arbeiten auch mit Partnern zusammen, um deutliche Signale für missbräuchliche Inhalte zu identifizieren und weiterzugeben, damit diese Inhalte von unserer und auch anderen Plattformen entfernt werden können. Wir geben jedes Jahr Millionen Hashwerte von Darstellungen des sexuellen Missbrauchs von Kindern an das National Center for Missing and Exploited Children in den USA weiter. Wir nehmen auch am „Project Lantern“ teil – einem Programm, das es Technologieunternehmen ermöglicht, Signale auf sichere und verantwortungsvolle Weise weiterzugeben. Darüber hinaus ist YouTube Mitbegründer des Global Internet Forum to Counter Terrorism (GIFCT), das die Technologiebranche, öffentliche Einrichtungen, die Zivilgesellschaft und die Wissenschaft zusammenbringt, um gegen terroristische und gewalttätige extremistische Aktivitäten im Internet vorzugehen.
Unterstützung für Organisationen, die sich für Sicherheit einsetzen
Wir unterstützen Organisationen auf der ganzen Welt, die sich für Onlinesicherheit und Medienkompetenz einsetzen. Dazu bieten wir Programme mit Trainings und Materialien, wie beispielsweise „Be Internet Awesome“ oder „Klicke Pause“ von YouTube, und stellen das Google News Lab zur Verfügung. Außerdem haben Google und YouTube am 29. November 2022 eine Förderung in Höhe von 13,2 Millionen Dollar für das International Fact-Checking Network (IFCN) angekündigt, um dessen Netzwerk von 135 Faktencheck-Organisationen zu unterstützen. Insgesamt haben wir im Rahmen unserer Zusammenarbeit bereits mehr als 550.000 Journalistinnen und Journalisten im Bereich „Digital Verification“ geschult, weitere 2,6 Millionen haben unser Onlinetraining absolviert .