Informacje i treści, którym
możesz ufać
W Google dążymy do znalezienia równowagi między dostarczaniem informacji a ochroną użytkowników i społeczeństwa. Traktujemy naszą odpowiedzialność poważnie. Chcemy zapewniać dostęp do wiarygodnych informacji i treści przez ochronę użytkowników, udostępnianie rzetelnych wiadomości oraz współpracę z ekspertami i organizacjami na rzecz bezpieczniejszego internetu.
Chronimy użytkowników
Zapobieganie nadużyciom
Aby chronić użytkowników przed nieodpowiednimi treściami, korzystamy z zabezpieczeń opartych na uczeniu maszynowym. Gmail co minutę automatycznie blokuje prawie 10 milionów e-maili zawierających spam ze skrzynek odbiorczych, a wyszukiwarka ma narzędzia zapobiegające sugerowaniu przez autouzupełnianie potencjalnie szkodliwych zapytań. Automatyczne wykrywanie pomaga YouTube wydajnie, skutecznie i na dużą skalę usuwać szkodliwe treści – w II kwartale 2023 r. 93% filmów naruszających zasady usuniętych z YouTube zostało najpierw wykrytych automatycznie. Wdrażamy też odpowiednie zabezpieczenia w naszych narzędziach generatywnej AI, aby zminimalizować ryzyko wykorzystania ich do tworzenia szkodliwych treści.
Oprócz tego każda z naszych usług podlega zestawowi zasad , który określa dozwolone i niedozwolone treści oraz zachowania. Stale ulepszamy i aktualizujemy nasze zasady, aby uwzględnić pojawiające się zagrożenia. Jeśli chodzi o pracę nad AI, bazujemy też na zasadach dotyczących sztucznej inteligencji , które nadają kierunek rozwojowi usługi i pomagają nam testować oraz oceniać każde zastosowanie AI przed jego wprowadzeniem.
Wykrywamy szkodliwe treści
W miarę ewolucji taktyk nieuczciwych podmiotów musimy pracować jeszcze ciężej, aby wykrywać szkodliwe treści w naszych usługach. Dzięki AI możemy to robić na większą skalę. Oparte na AI klasyfikatory pomagają szybko oznaczać potencjalnie szkodliwe treści do usunięcia lub przekazania osobie weryfikującej. W 2022 r. automatyczne egzekwowanie zasad pomogło nam wykryć i zablokować ponad 51,2 miliona reklam zawierających wypowiedzi szerzące nienawiść, przemoc i szkodliwe twierdzenia dotyczące zdrowia. Ponadto duże modele językowe (LLM), czyli przełomowy rodzaj AI, składają obietnicę wykładniczego skrócenia czasu potrzebnego na wykrycie i ocenę szkodliwych materiałów, szczególnie w przypadku nowych i pojawiających się zagrożeń.
Współpracujemy też z zewnętrznymi organizacjami zgłaszającymi treści, które ich zdaniem mogą być szkodliwe. Zarówno Google, jak i YouTube przyjmują opinie od setek priorytetowych podmiotów sygnalizujących, czyli organizacji na całym świecie z wiedzą kulturową i merytoryczną, które przekazują nam treści do sprawdzenia.
Reagujemy w odpowiedni sposób
Oceniamy potencjalne naruszenia zasad i odpowiednio reagujemy na zgłoszone treści, korzystając zarówno z pracy ludzi, jak i technologii opartej na AI. Jeśli treść narusza nasze zasady, możemy ją ograniczyć, usunąć, wyłączyć zarabianie lub podjąć działania na poziomie konta, aby zminimalizować kolejne nadużycia.
W 2022 r. usunęliśmy z Map Google ponad 300 milionów fałszywych treści i 115 milionów opinii naruszających zasady oraz zablokowaliśmy 20 milionów prób utworzenia fałszywych profili firm. W II kwartale 2023 r. usunęliśmy z YouTube ponad 14 milionów kanałów i 7 milionów filmów za naruszenie naszych wytycznych dla społeczności .
Aby ocenić kontekst i niuanse, a jednocześnie zmniejszyć ryzyko nadmiernego usuwania treści, korzystamy z pomocy około 20 tys. przeszkolonych weryfikatorów, którzy pracują na różnych stanowiskach – zajmują się egzekwowaniem zasad, moderowaniem treści i ocenianiem zgłoszonych materiałów w produktach i usługach Google.
Jeśli twórca lub wydawca uważa, że podjęliśmy niewłaściwą decyzję, może złożyć odwołanie .
Udostępniamy rzetelne
informacje
Inteligentne algorytmy
Narzędzia ułatwiające ocenę treści
Odpowiedzialne
zarządzanie treściami na YouTube
Usuwamy treści, które naruszają nasze zasady. Pomaga nam w tym połączenie pracy ludzkiej i technologii.
Wykorzystujemy wiarygodne źródła wiadomości i informacji oraz zapewniamy widzom kontekst.
Odpowiedzialnie zarządzamy treściami, ograniczając rozprzestrzenianie się dezinformacji oraz treści bliskich łamania wytycznych.
Nagradzamy zaufanych twórców za pomocą programu partnerskiego YouTube (YPP), dzieląc się przychodami z reklam i innych źródeł. W ciągu 3 lat przed czerwcem 2022 r. w ramach YPP zapłaciliśmy twórcom, wykonawcom i firmom medialnym ponad 50 miliardów dolarów.
Współpracujemy na rzecz
bezpieczeństwa
Dzielimy się wiedzą w trosce o bezpieczeństwo użytkowników
Współpracujemy z ekspertami ze społeczeństwa obywatelskiego, środowisk akademickich i instytucji państwowych, aby stawić czoła globalnym problemom, takim jak nieprawdziwe informacje, bezpieczeństwo reklam, uczciwość wyborów, AI w moderowaniu treści i zwalczanie wykorzystywania dzieci w internecie. Publikujemy też wyniki badań i udostępniamy zbiory danych naukowcom, aby umożliwić dalszy postęp w tej dziedzinie.
W YouTube regularnie konsultujemy się z niezależnym Komitetem doradczym ds. dzieci i rodzin w sprawie aktualizacji usług i zasad, w tym zasad dotyczących młodzieży , a także serii aktualizacji usług skupiających się na zdrowiu psychicznym i dobrym samopoczuciu nastolatków.
Współpracujemy z ekspertami, aby zwalczać treści niezgodne z prawem
Współpracujemy również z partnerami, aby wykrywać i udostępniać wyraźne sygnały dotyczące nieodpowiednich treści i umożliwiać ich usunięcie z większego ekosystemu. Co roku przekazujemy miliony haszów związanych z CSAM amerykańskiemu Narodowemu Centrum ds. Dzieci Zaginionych i Wykorzystywanych. Uczestniczymy też w programie Project Lantern, który umożliwia firmom technologicznym udostępnianie sygnałów w bezpieczny i odpowiedzialny sposób. Ponadto YouTube jest współzałożycielem globalnego forum internetowego do zwalczania terroryzmu (Global Internet Forum to Counter Terrorism, GIFC), które zrzesza przedstawicieli branży technologicznej, rządy, społeczeństwo obywatelskie i środowisko akademickie w celu zwalczania terroryzmu i brutalnej działalności ekstremistycznej w internecie.
Wspieramy organizacje zajmujące się bezpieczeństwem
Na całym świecie wspieramy organizacje zajmujące się bezpieczeństwem w sieci i kompetencjami w zakresie korzystania z mediów. Robimy to w ramach zaawansowanych programów oferujących szkolenia i materiały, takich jak program Asy Internetu, „Wciśnij pauzę” w YouTube czy Google News Lab. Ponadto Google i YouTube ogłosiły przekazanie grantu w wysokości 13,2 miliona dolarów organizacji International Fact-Checking Network (IFCN), aby wesprzeć jej sieć 135 organizacji weryfikujących informacje. Łącznie dzięki naszej współpracy ponad 550 tys. dziennikarzy zdobyło umiejętności cyfrowego weryfikowania informacji, a kolejne 2,6 miliona przeszkoliliśmy online.