מעבר לתוכן

סמל של מגן כחול שכתובה עליו האות G בצבע לבן

מידע ותוכן שאפשר להסתמך עליהם

ב-Google אנחנו שואפים לאזן בין עזרה במציאת מידע לבין הגנה על המשתמשים והחברה. אנחנו מתייחסים ברצינות לאחריות הזו. המטרה שלנו היא לתת גישה למידע ולתוכן מהימנים, ואנחנו מגינים על המשתמשים מפני תוכן מזיק, מספקים מידע מהימן ופועלים בשיתוף עם מומחים וארגונים כדי לשפר את רמת הבטיחות באינטרנט.

אנחנו מגינים עליכםמתוכן מזיק

אנחנו שומרים על הבטיחות שלכם ושל כלל הציבור בעזרת אמצעי הגנה מתקדמים שנועדו למנוע פרסום של תוכן מזיק ולא חוקי, וגם לזהות תוכן כזה ולפעול בהתאם.

מונעים

מונעים התנהלות פוגעת

אנחנו משתמשים בכלים מבוססי למידת מכונה כדי לצמצם חשיפה לתוכן פוגעני. ב-Gmail אנחנו חוסמים באופן אוטומטי כמעט 10 מיליון הודעות ספאם כל דקה כדי שלא יגיעו לתיבות הדואר הנכנס, ובהשלמה האוטומטית בחיפוש Google יש כלים שחוסמים הצעות של שאילתות שיכולות להיות מזיקות. ב-YouTube אנחנו נעזרים באמצעי זיהוי אוטומטיים כדי להסיר כמויות גדולות של תוכן פוגעני ביעילות: ברבעון השני של 2023,‏ 93% מהסרטונים שהוסרו מ-YouTube בגלל הפרת מדיניות זוהו בכלים אוטומטיים. אנחנו גם מטמיעים בכלי ה-AI הגנרטיבי שלנו אמצעי הגנה שמפחיתים את הסיכוי שישתמשו בהם כדי ליצור תוכן פוגעני.

בנוסף, כל אחד מהמוצרים שלנו כפוף ל קבוצה של כללי מדיניות שעוסקים בתוכן ובהתנהגות ומפרטים מה מקובל ומה לא. אנחנו כל הזמן מחדדים ומעדכנים את כללי המדיניות בהתאם לסיכונים חדשים. בתחום ה-AI אנחנו פועלים גם בהתאם ל עקרונות ה-AI‏ שלנו, שמנחים אותנו בפיתוח מוצרים ועוזרים לנו לבדוק ולהעריך כל מוצר AI לפני ההשקה.

תמונה של כרטיס שעובר דרך ריבוע כחול.

מזהים

מזהים תוכן פוגעני

השיטות של גורמים זדוניים משתכללות, ואנחנו צריכים להשקיע יותר מאמצים כדי לזהות תוכן פוגעני שמחדירים למוצרים שלנו. ‫AI עוזר לנו לזהות יותר ביעילות התנהלות פוגעת בכל הפלטפורמות שלנו. מסווגים מבוססי-AI מזהים במהירות תוכן שיכול להיות פוגעני ומסמנים אם צריך להסיר אותו או להעביר אותו לבודק אנושי. בשנת 2022, אמצעי אכיפה אוטומטיים עזרו לנו לזהות ולחסום יותר מ-51.2 מיליון מודעות שכללו דברי שטנה, תוכן אלים והצהרות מזיקות בנושא בריאות. אנחנו נעזרים גם במודלים גדולים של שפה (LLM), שהם סוג חדשני של טכנולוגיית AI, ובזכותם הזמן שנדרש לזהות ולבחון חומר מזיק יכול להתקצר משמעותית ‒ במיוחד כשמדובר בסיכונים חדשים שרק מתחילים להשפיע על המערכת.

אנחנו גם עובדים עם ארגונים חיצוניים שמסמנים לבדיקה תוכן שעלול להזיק. ב-Google וגם ב-YouTube אוספים נתוני משוב ממאות משתתפים בתוכנית Priority Flagger – אלה ארגונים ברחבי העולם שבהם יש מומחים לענייני תרבות ובעוד מגוון תחומים, שמעבירים לנו תוכן לבדיקה.

תמונה של זכוכית מגדלת שמקיפה עיגולים עם מנעול אדום, סימן וי ירוק, כדור הארץ בכחול וסימן קריאה בצהוב.

מגיבים

מגיבים בצורה מתאימה

בעזרת בודקים אנושיים וטכנולוגיות מבוססות-AI, אנחנו מבצעים הערכות לגבי הפרות מדיניות אפשריות ומגיבים בהתאם לתוכן שמדווח. כשקטע תוכן מפר את המדיניות שלנו, אנחנו יכולים להגביל או להסיר אותו, ולבטל את המונטיזציה או לבצע פעולות ברמת החשבון כדי לצמצם מקרים של התנהלות פוגעת בעתיד.

בשנת 2022, חסמנו או הסרנו במפות Google יותר מ-300 מיליון קטעי תוכן מזויף ו-115 מיליון ביקורות שהפרו את המדיניות, ומנענו 20 מיליון ניסיונות ליצור פרופילים מזויפים של עסקים. ברבעון השני של 2023, הוסרו מ-YouTube יותר מ-14 מיליון ערוצים ו-7 מיליון סרטונים בגלל הפרות של הנחיות הקהילה .

כדי לבחון הקשר ופרטים קטנים, וגם להפחית את הסיכוי להסרת-יתר של תוכן, אנחנו מסתמכים על כ-20,000 בודקים אנושיים שהוכשרו לעבוד במגוון תפקידים, והם אוכפים את כללי המדיניות שלנו, וגם מנהלים תוכן ובודקים דיווחים שקיבלנו דרך המוצרים והשירותים של Google.

יוצרים או מפרסמים שחושבים שקיבלנו החלטה שגויה יכולים לערער על ההחלטה.

מגן כחול שכתובה עליו האות G והוא מוקף בעיגולים, שאחד מהם צהוב עם כוכב בפנים ואחד עם סמל פרופיל ירוק

מספקים מידע
מהימן

אנחנו מספקים מידע מהימן ואת הכלים הטובים בתחום כדי שתוכלו לבדוק בעצמכם את התוכן, ולדעת שהמידע שאתם מקבלים בפלטפורמות שלנו מהימן.
חלון דפדפן שרואים בו עיגול ירוק עם סמל וי ומתחתיו יש קווים מקווקווים שמסתיימים במלבנים כחולים
איך אנחנו מארגנים מידע

אלגוריתמים חכמים

האלגוריתמים שאנחנו מעדכנים באופן שוטף הם חלק מרכזי מהפעילות שלנו, בכל סוגי המוצרים – ממפות Google עד תוצאות בחיפוש Google. באלגוריתמים האלה משולבים מודלים גדולים ומתקדמים של שפה (LLM) ואותות כמו מילות מפתח או עדכניות של אתרים ותוכן, כדי שתוכלו למצוא את התוצאות הכי רלוונטיות ושימושיות. למשל בתוצאות החיפוש, בהמלצות ובחלוניות המידע ב-YouTube מוצג בצורה בולטת תוכן באיכות גבוהה ממקורות מוסמכים כדי שאנשים יוכלו למצוא במהירות מידע וקטעי חדשות שימושיים ומדויקים.

כלים שיעזרו לכם להעריך את מהימנות התוכן

פיתחנו כמה פיצ'רים שיעזרו לכם להבין ולבחון את התוכן שאתם מקבלים מהאלגוריתמים וכלי ה-AI הגנרטיבי שלנו, וגם יספקו לכם הקשר נוסף לתוכן שאתם רואים באינטרנט.

ניהול אחראי
של תוכן ב-YouTube

ב-YouTube אנחנו מחויבים ליצור פלטפורמה שפועלת בצורה אחראית ושהצופים, היוצרים והמפרסמים בקהילה שלנו יוכלו להסתמך עליה. כאן יש מידע נוסף על הגישה שלנו.

מסירים

בודקים אנושיים וכלים טכנולוגיים עוברים על התוכן ומסירים אותו אם הוא מפר את המדיניות שלנו.

חלון דפדפן שבמרכז שלו עובר קו מקווקו כחול וסביבו יש ריבוע.

מקדמים

אנחנו מקדמים מקורות מוסמכים של חדשות ומידע, ונותנים לצופים הקשר לגבי התוכן.

מצמצמים

כדי לנהל תוכן בצורה אחראית, אנחנו מצמצמים הפצה של תוכן גבולי ומידע מוטעה ומזיק.

מתגמלים

כדי לתגמל יוצרים מהימנים דרך תוכנית השותפים של YouTube‏ (YPP), אנחנו מחלקים הכנסות מפרסום וממגוון מקורות הכנסה אחרים. ב-3 השנים שהסתיימו ביוני 2022 שילמנו דרך YPP יותר מ-50 מיליארד דולר ליוצרים, לאומנים ולחברות מדיה.

שיתופי פעולה שמשפרים
את הבטיחות באינטרנט

אנחנו עובדים עם מומחים וארגונים, ומשתפים איתם מידע וגם את המשאבים והטכנולוגיות שלנו.

משתפים ידע

משתפים מידע ומגינים עליכם

אנחנו עובדים בשיתוף עם מומחים מארגונים אזרחיים, וממוסדות אקדמיים וממשלתיים כדי לטפל בבעיות גלובליות כמו מידע מוטעה, בטיחות בפרסום, תקינות בתהליכי בחירות, AI בניהול תוכן, ומאבק בתופעה של ניצול ילדים באינטרנט. אנחנו גם מפרסמים ממצאי מחקרים וקבוצות נתונים לטובת מוסדות אקדמיים כדי שנוכל להמשיך להתקדם בתחום הזה.

ב-YouTube אנחנו מתייעצים באופן קבוע עם הוועדה המייעצת העצמאית שלנו בנושא תכנים לילדים ולכל המשפחה . הם מייעצים לנו לגבי עדכוני מוצרים ומדיניות, כולל העקרונות שלנו לסביבה בטוחה לקטינים וסדרה של עדכוני מוצרים שמיועדים לקדם בריאות נפשית ואיכות חיים בקרב בני נוער.

מודל של אטום שבמרכז שלו יש מגן כחול שכתובה עליו G לבנה, מוקף במנעול כחול, תיק ירוק, עולם צהוב וסימן קריאה אדום.

משתפים אותות

משתפים פעולה עם מומחים כדי להילחם בפרסום תוכן לא חוקי

אנחנו גם עובדים עם שותפים כדי לזהות ולשתף אותות ברורים שמצביעים על תוכן פוגעני, ואז להסיר אותו מהסביבה הכוללת. כל שנה אנחנו משתפים עם National Center for Missing and Exploited Children בארה"ב מיליוני פריטי מידע על סרטונים שהוסרו בגלל זיהוי CSAM. אנחנו גם משתתפים ב-Project Lantern, תוכנית שמאפשרת לחברות טכנולוגיה לשתף אותות באופן בטוח ובצורה אחראית. בנוסף, ב-YouTube ייסדנו את פורום האינטרנט הגלובלי למלחמה בטרור (GIFCT), בשיתוף עם גורמים אחרים מהתחום. בפורום הזה, חברות טכנולוגיה, גורמים ממשלתיים ואזרחיים ונציגים מהאקדמיה עובדים יחד כדי להילחם בפעילות טרור ובפעילות אלימה וקיצונית באינטרנט.

מגן אדום שמוקף בשרטוט של מלבן שבפינה אחת שלו יש חלונות של דפדפן ובפינה אחרת תמונה של כדור הארץ.

משתפים משאבים

תומכים בארגונים שמקדמים בטיחות

אנחנו תומכים במגוון ארגונים בעולם שהוקמו כדי לקדם בטיחות באינטרנט ואוריינות מדיה. אלה ארגונים כמו "גדולים באינטרנט", תוכנית Hit Pause של YouTube ו-Google News Lab, שמפתחים תוכניות לימוד יעילות בנושאים האלה, שמבוססות על חומרי הדרכה ומקורות מידע. ‫Google ו-YouTube גם הכריזו שישולם מענק בסך 13.2 מיליון דולר לרשת הבינלאומית לבדיקת עובדות (International Fact-Checking Network,‏ IFCN), שחברים בה 135 ארגונים שעוסקים בתחום. בסך הכול, בזכות שיתופי הפעולה שיצרנו, יותר מ-550,000 עיתונאים רכשו מיומנויות לאימות מקורות בדיגיטל, והעברנו הדרכות באינטרנט לעוד 2.6 מיליון עיתונאים .

מגן כחול עם סימן וי מונח מעל מפת העולם עם קווים ונקודות.

אנחנו משתפים באופן פעיל
טכנולוגיה להגנה על הבטיחות

אנחנו משתפים ממשקי תכנות אפליקציות (API) שעוזרים לארגונים אחרים להגן על הפלטפורמות והמשתמשים שלהם מפני תוכן פוגעני.
בניין במעגל כחול שמוקף במעגלים בצבעי אדום, צהוב, ירוק וכחול שבתוכם יש מנעולים.
‫GSEC בדבלין

התנהלות אחראית בתחום התוכן: המשימה שלנו בדבלין

‫Google Safety Engineering Center שנמצא בדבלין ומטרתו לקדם פרסום תוכן בצורה אחראית, הוא מרכז אזורי של מומחי Google שפועלים למניעת הפצה של תוכן לא חוקי ופוגעני. זהו גם המקום שבו אנחנו יכולים לעבוד בשיתוף עם גורמים שאחראים לקביעת מדיניות, חוקרים וסוכנויות רגולטוריות. ברשת של מרכזי Google Safety Engineering Center אנחנו נותנים לצוותים שלנו את המרחב, ההשראה והתמיכה שהם צריכים כדי לפתח את הדור הבא של הפתרונות ולשפר את הבטיחות באינטרנט.

חוויית אינטרנט מועילה ובטוחה יותר
כבר מההתחלה

היום יותר מתמיד, חשוב לנו להשקיע מאמצים כדי לספק מידע ותוכן מהימנים. כדי להתמודד טוב יותר עם האתגרים שקשורים לניהול תוכן, נמשיך להשקיע בפיתוח ובשיפור של כללי מדיניות, מוצרים ותהליכים, כך שתוכלו להתנהל בראש שקט וכולם יוכלו ליהנות מחוויה בטוחה יותר באינטרנט.