Informationen und Inhalte,

denen Sie vertrauen können

Unser Ziel bei Google ist es, die Informationen der Welt für alle Menschen zugänglich und nutzbar zu machen – gleichzeitig aber auch alle Menschen und die Gesellschaft zu schützen. Wir tun unser Bestes, um alle unsere Nutzer:innen zu schützen, ihnen zuverlässige Informationen zu liefern und mit Expert:innen und Organisationen zusammenzuarbeiten, um das Internet zu einem sichereren Ort zu machen.

Wir unterstützen Sie beim Thema Sicherheit

Wir schützen Sie und die Gesellschaft mit erweiterten Sicherheitsmassnahmen, die verhindern, dass Sie schädliche und illegale Inhalte sehen – unsere Sicherheitsmassnahmen können solche Inhalte auch proaktiv entdecken und entsprechend auf sie reagieren.

Verhindern

Missbrauch verhindern

Wir schützen Menschen mithilfe KI-gestützter Massnahmen vor missbräuchlichen Inhalten. Gmail blockiert automatisch fast 10 Millionen Spam-E-Mails pro Minute, und Tools der Google Suche verhindern, dass die automatische Vervollständigung potenziell schädliche Suchanfragen vorschlägt. Die automatische Erkennung trägt dazu bei, dass YouTube grosse Mengen schädlicher Inhalte effizient entfernen kann. Im zweiten Quartal 2023 wurden 93 % der von YouTube aufgrund von Richtlinienverstössen entfernten Videos zuerst automatisch erkannt. Ausserdem bauen wir Sicherheitsvorkehrungen in unsere Produkte basierend auf generativer KI ein, um das Risiko zu minimieren, dass sie zur Erstellung schädlicher Inhalte verwendet werden.

Darüber hinaus gelten für alle unsere Produkte bestimmte Richtlinien, in denen akzeptable sowie inakzeptable Inhalte und Verhaltensweisen festgelegt werden. Unsere Richtlinien werden ständig evaluiert, damit wir auf neue Risiken angemessen reagieren können. Bei der Entwicklung von Produkten stützen wir uns auch auf unsere KI-Grundsätze. Jede KI-Anwendung wird getestet und bewertet, bevor sie auf den Markt kommt.

Erkennen

Schädliche Inhalte erkennen

Da sich die Taktiken böswilliger Akteure weiterentwickeln, müssen wir noch mehr als bisher daran arbeiten, schädliche Inhalte zu erkennen. Dabei hilft uns künstliche Intelligenz. KI-gestützte Klassifikatoren tragen dazu bei, potenziell schädliche Inhalte schnell zu erkennen und zu entfernen oder an Prüfer:innen weiterzuleiten. Im Jahr 2022 konnten wir dank automatisierter Massnahmen mehr als 51,2 Millionen Werbeanzeigen mit Hassrede, Gewalt und schädlichen gesundheitsbezogenen Behauptungen erkennen und blockieren. Darüber hinaus versprechen Large Language Models, ein Durchbruch im Bereich KI, eine exponentielle Verkürzung der Zeit, die für die Erkennung und Bewertung von schädlichem Material benötigt wird – insbesondere in Bezug auf neue Risiken.

Wir arbeiten auch mit externen Organisationen zusammen, die Inhalte melden, welche ihrer Meinung nach schädlich sein könnten. Sowohl Google als auch YouTube erhalten Feedback von Hunderten von „Priority Flaggern“, also von Organisationen auf der ganzen Welt, die über das nötige kulturelle und inhaltliche Know-how verfügen und uns Inhalte zur Prüfung weiterleiten.

Reagieren

Angemessen reagieren

Wir verlassen uns sowohl auf Menschen als auch auf KI-gestützte Technologie, um potenzielle Richtlinienverstösse zu bewerten und angemessen auf gemeldete Inhalte zu reagieren. Wenn ein Inhalt gegen unsere Richtlinien verstösst, können wir ihn einschränken, entfernen, die Monetarisierung deaktivieren oder Massnahmen auf Kontoebene ergreifen, um zukünftigen Missbrauch zu verhindern.

Im Jahr 2022 wurden in Google Maps über 300 Millionen gefälschte Inhalte gesperrt, 115 Millionen Rezensionen, die gegen die Richtlinien verstiessen, entfernt, und 20 Millionen Versuche, gefälschte Unternehmensprofile zu erstellen, verhindert. Im zweiten Quartal 2023 wurden bei YouTube mehr als 14 Millionen Kanäle und 7 Millionen Videos aufgrund von Verstössen gegen unsere Community-Richtlinien entfernt.

Wir arbeiten mit etwa 20.000 fachlich geschulten Prüfer:innen zusammen, die Kontext und Nuancen in die Bewertung einbeziehen, um Inhalte nur dann zu entfernen, wenn dies tatsächlich gerechtfertigt ist. Diese Prüfer:innen setzen ausserdem unsere Richtlinien durch, moderieren Inhalte und bewerten gemeldete Inhalte in allen Produkten und Diensten von Google.

Sollten Creator oder Publisher der Meinung sein, dass wir eine falsche Entscheidung getroffen haben, können sie dagegen Einspruch erheben.

Wir liefern Ihnen verlässliche Informationen

Wir fördern Vertrauen in die Informationen und Inhalte auf unseren Plattformen, indem wir zuverlässige Informationen liefern und erstklassige Tools bereitstellen.

Informationen organisieren

Intelligente Algorithmen

Unsere ständig aktualisierten Algorithmen bilden die Grundlage all unserer Aktivitäten. Wir setzen sie überall ein: in Produkten wie Google Maps bis hin zu Ergebnissen der Google Suche. Diese Algorithmen verwenden fortschrittliche Large Language Models und Signale wie Schlüsselwörter oder die Aktualität von Websites und Inhalten. So finden Sie immer die relevantesten und nützlichsten Ergebnisse. Auf YouTube werden beispielsweise in den Suchergebnissen, Empfehlungen und Infobereichen vorzugsweise hochwertige Inhalte aus zuverlässigen Quellen angezeigt, damit Nutzer:innen aktuelle, exakte und hilfreiche Nachrichten und Informationen finden.

Tools zur einfacheren Bewertung von Inhalten

Wir haben eine Reihe von Funktionen entwickelt, mit deren Hilfe Sie die von unseren Algorithmen und Tools basierend auf generativer KI gefundenen Inhalte noch besser verstehen und bewerten können.

Verantwortlicher Umgang mit Inhalten auf YouTube

YouTube hat den Anspruch, eine verantwortungsvolle Plattform zu sein, auf die sich unsere Community aus Zuschauer:innen, Creator:innen und Werbetreibenden verlassen kann.
Weitere Informationen

Partnerschaftliche Zusammenarbeit für mehr Sicherheit im Internet

Wir arbeiten proaktiv mit Expert:innen und Organisationen zusammen, informieren sie und geben unsere Ressourcen und Technologien an sie weiter.

Wissen weitergeben

Wir tauschen uns mit anderen aus, um Sie besser zu schützen

Wir arbeiten mit Expert:innen aus der Zivilgesellschaft, der Wissenschaft und von öffentlichen Einrichtungen zusammen, um globale Themen wie Falschinformationen, die Sicherheit von Werbung, die Integrität von Wahlen und Wahlergebnissen, KI bei der Moderation von Inhalten und die Bekämpfung der Ausbeutung von Kindern im Internet anzugehen. Ausserdem veröffentlichen wir Forschungsergebnisse und stellen Akademiker:innen Datensätze zur Verfügung, um den Fortschritt auf diesen Gebieten zu fördern.

YouTube berät sich regelmässig mit seinem unabhängigen Beratungsausschuss zum Thema Kinder, Jugendliche und Familien über Aktualisierungen von Produkten und Richtlinien. Dazu gehören unsere YouTube-Grundsätze für den Schutz von Kindern und Jugendlichen online sowie eine Reihe von Produktupdates, bei denen wir besonders die psychische Gesundheit und das Wohlergehen von Kindern und Jugendlichen im Blick haben.

Signale für missbräuchliche Inhalte weitergeben

Wir gehen zusammen mit Expert:innen gegen illegale Inhalte vor

Wir arbeiten auch mit Partnern zusammen, um deutliche Signale für missbräuchliche Inhalte zu entdecken und weiterzugeben, damit diese Inhalte von unserer und auch anderen Plattformen entfernt werden können. Wir nehmen beispielsweise am „Project Lantern“ teil – einem Programm, das es Technologieunternehmen ermöglicht, Signale auf sichere und verantwortungsvolle Weise weiterzugeben. Darüber hinaus ist YouTube Mitbegründer des Global Internet Forum to Counter Terrorism (GIFCT), das die Technologiebranche, öffentliche Einrichtungen, die Zivilgesellschaft und die Wissenschaft zusammenbringt, um gegen terroristische und gewalttätige extremistische Aktivitäten im Internet vorzugehen.

Ressourcen weitergeben

Wir unterstützen Organisationen, die sich für Sicherheit engagieren

Wir unterstützen Organisationen auf der ganzen Welt, die sich für Onlinesicherheit und Medienkompetenz einsetzen. Dazu bieten wir Programme mit Trainings und Materialien, wie beispielsweise „Be Internet Awesome“, „Hit Pause“ von YouTube und stellen das Google News Lab zur Verfügung. Ausserdem haben Google und YouTube am 29. November 2022 eine Förderung in Höhe von 13,2 Millionen Dollar für das International Fact-Checking Network (IFCN) angekündigt, um dessen Netzwerk von 135 Faktencheck-Organisationen zu unterstützen. Insgesamt haben wir im Rahmen unserer Zusammenarbeit bereits mehr als 550.000 Journalist:innen im Bereich "Digital Verification" geschult, weitere 2,6 Millionen haben unser Onlinetraining absolviert.

Aktive Weitergabe von APIs, die zur Sicherheit beitragen

Wir geben unseren Partnerorganisationen Tools an die Hand, mit denen sie ihre Plattformen und Nutzer:innen vor schädlichen Inhalten schützen können.

GSEC DUBLIN

Dublin – unsere Zentrale für verantwortungsvollen Umgang mit Inhalten

Unser Google Safety Engineering Center für verantwortungsvollen Umgang mit Inhalten in Dublin ist ein regionales Zentrum für Google-Expert:innen, die sich mit der Verbreitung illegaler und schädlicher Inhalte befassen. Es ist ausserdem ein Ort, an dem wir die Ergebnisse dieser Arbeit mit politischen Entscheidungsträger:innen, Forschungsteams und Regulierungsbehörden teilen können. Unser Netzwerk der Google Safety Engineering Centers stellt unseren Teams alles zur Verfügung, was sie brauchen, um innovative Lösungen für ein sichereres Internet zu entwickeln.

Für sicherere, nützliche Inhalte im Internet – von Grund auf

Nie zuvor hatte unser Bemühen, unseren Nutzer:innen vertrauenswürdige Inhalte und Informationen zu liefern, mehr Bedeutung als heute. Die Herausforderungen der Inhaltsmoderation ändern sich stetig – und wir werden weiterhin in die Entwicklung und Verbesserung von Richtlinien, Produkten und Prozessen investieren, die das Internet für alle sicherer machen.

Das tun wir
für Ihre Onlinesicherheit