מידע ותוכן
שאפשר להסתמך עליהם
ב-Google אנחנו שואפים לאזן בין עזרה במציאת מידע לבין הגנה על המשתמשים והחברה. אנחנו מתייחסים ברצינות לאחריות הזו. המטרה שלנו היא לתת גישה למידע ולתוכן מהימנים ולשם כך אנחנו מגינים על המשתמשים מפני תוכן מזיק, מספקים מידע מהימן ופועלים בשיתוף עם מומחים וארגונים כדי לשפר את רמת הבטיחות באינטרנט.
אנחנו שומרים על הבטיחות שלכם ושל כלל הציבור בעזרת אמצעי הגנה מתקדמים שנועדו למנוע פרסום של תוכן מזיק ולא חוקי, וגם לזהות תוכן כזה ובעקבות זאת, לבצע פעולות לגביו.
מניעה
מונעים ניצול לרעה
כדי להגן על אנשים מפני תוכן פוגעני, אנחנו מפעילים אמצעי הגנה מבוססי-AI. ב-Gmail אנחנו חוסמים באופן אוטומטי כמעט 10 מיליון אימיילים של ספאם כל דקה כדי שלא יגיעו לתיבות דואר נכנס, וחיפוש Google כולל כלים למניעת הצעות של שאילתות שיכולות להיות מזיקות במסגרת 'השלמה אוטומטית'. ב-YouTube, אמצעי זיהוי אוטומטיים עוזרים להסיר תוכן פוגעני באופן יעיל, אפקטיבי ונרחב – ברבעון השני של שנת 2023, 93% מהסרטונים שהוסרו מ-YouTube עקב הפרת מדיניות זוהו לראשונה באופן אוטומטי. אנחנו גם מיישמים אמצעי הגנה בכלי ה-AI הגנרטיבי שלנו כדי למזער את הסיכון שהם ישמשו ליצירת תוכן פוגעני.
בנוסף, כל אחד מהמוצרים שלנו כפוף לקבוצה של כללי מדיניות, שבהם מתואר מהם תוכן והתנהגות מקובלים ומהם תוכן והתנהגות בלתי הולמים. אנחנו פועלים באופן שוטף כדי לחדד ולעדכן את כללי המדיניות שלנו במטרה לטפל בסיכונים חדשים. במסגרת העבודה שלנו בתחום ה-AI, אנחנו פועלים גם בהתאם לעקרונות ה-AI שלנו, שמנחים אותנו בפיתוח מוצרים ועוזרים לנו לבדוק ולהעריך כל יישום של טכנולוגיית AI לפני השקה.
זיהוי
מזהים תוכן פוגעני
השיטות של גורמים זדוניים מתפתחות, ועלינו להשקיע יותר מאמצים כדי לזהות תוכן פוגעני שמחדירים למוצרים שלנו. בעזרת AI, אנחנו יכולים להרחיב את יכולות הזיהוי של ניצול לרעה בכל הפלטפורמות שלנו. באמצעות מסווגים מבוססי-AI, תוכן פוגעני פוטנציאלי מסומן במהירות להסרה או להעברה לטיפול של בודק אנושי. בשנת 2022 אמצעי אכיפה אוטומטיים עזרו לנו לזהות ולחסום יותר מ-51.2 מיליון מודעות שכללו דברי שטנה, תוכן אלים והצהרות מזיקות בנושא בריאות. כמו כן, באמצעות מודלים גדולים של שפה (LLM), סוג של טכנולוגיית AI פורצת דרך, הזמן שנדרש לזיהוי ולהערכה של חומר מזיק יכול להתקצר באופן מעריכי ‒ במיוחד לגבי סיכונים חדשים שרק מתחילים להשפיע על המערכת.
אנחנו גם עובדים עם ארגונים חיצוניים שבהם מסמנים תוכן שעלול להזיק. ב-Google וגם ב-YouTube אוספים נתוני משוב ממאות משתתפים בתוכנית Priority Flagger, ארגונים ברחבי העולם שבהם יש מומחים לענייני תרבות ומומחים בתחום, שמעבירים לנו תוכן לצורך בדיקה.
תגובה
מגיבים בצורה הולמת
בעזרת בודקים אנושיים ומערכות מבוססות-AI, אנחנו מבצעים הערכות לגבי הפרות מדיניות אפשריות ומגיבים בהתאם לתוכן שמדווח. כשקטע תוכן מפר את המדיניות שלנו, אנחנו יכולים להגביל או להסיר אותו, ולבטל את המונטיזציה או לבצע פעולות ברמת החשבון כדי לצמצם מקרים של ניצול לרעה בעתיד.
בשנת 2022, במסגרת מפות Google חסמנו או הסרנו יותר מ-300 מיליון קטעי תוכן מזויף ו-115 מיליון ביקורות שהפרו את המדיניות, ומנענו 20 מיליון ניסיונות ליצירת פרופילים מזויפים של עסקים. ברבעון השני של 2023, ב-YouTube הוסרו יותר מ-14 מיליון ערוצים ו-7 מיליון סרטונים עקב הפרת הנחיות הקהילה שלנו.
כדי לבצע הערכות לגבי הקשר ופרטים קטנים, וגם להפחית את הסיכוי להסרת-יתר של תוכן, אנחנו מסתמכים על כ-20,000 בודקים אנושיים שהוכשרו לעבוד במגוון תפקידים כדי לאכוף את כללי המדיניות שלנו, לנהל תוכן ולהעריך תוכן שדווח במסגרת המוצרים והשירותים של Google.
יוצרים או מפרסמים שחושבים שקיבלנו החלטה שגויה יכולים לערער על ההחלטה.
אנחנו מספקים מידע מהימן ואת הכלים הטובים בתחום כדי שתוכלו לשלוט בשיטות הערכת התוכן, ולהסתמך על המידע והתוכן שבפלטפורמות שלנו.
איך אנחנו מארגנים מידע
אלגוריתמים חכמים
האלגוריתמים שאנחנו מעדכנים באופן שוטף הם חלק מרכזי מהפעילות שלנו, בכל סוגי המוצרים – ממפות Google עד תוצאות בחיפוש Google. באלגוריתמים האלה משולבים מודלים גדולים ומתקדמים של שפה (LLM) ואותות כמו מילות מפתח או עדכניות של אתרים ותוכן, כדי שתוכלו למצוא את התוצאות הכי רלוונטיות ושימושיות. למשל, במסגרת תוצאות החיפוש, ההמלצות וחלוניות המידע ב-YouTube מוצג בצורה בולטת תוכן באיכות גבוהה ממקורות מוסמכים כדי שאנשים יוכלו למצוא במהירות מידע וקטעי חדשות שימושיים ומדויקים.
פיתחנו כמה פיצ'רים שיעזרו לכם להבין ולהעריך את התוכן שמוצג בעזרת האלגוריתמים שלנו וכלי ה-AI הגנרטיבי, ויספקו הקשר נוסף לתוכן שמוצג לכם באינטרנט.
-
מרכז המודעות שלי
באמצעות 'מרכז המודעות שלי', קל לנהל את חוויית הצפייה במודעות וכך לראות יותר מותגים שמעניינים אתכם ופחות מותגים שלא מעניינים אתכם.
-
בדיקת עובדות בחיפוש Google ובחדשות Google
בכל יום מוצגים ב-Google נתונים מבדיקות עובדות בלתי תלויות 6 מיליון פעמים. עם הכלים המתקדמים של Google לבדיקת עובדות לגבי תמונות ותוצאות, קל יותר לזהות מידע מוטעה באינטרנט.
-
מידע על התוצאה הזו
במסגרת 'מידע על התוצאה הזו' אפשר לראות פרטים על אתר לפני שמבקרים בו, כולל התיאור שלו, מתי הוא התווסף לאינדקס בפעם הראשונה ומה אחרים אומרים על המקור והנושא שלו.
-
SynthID לסימני מים
SynthID הוא כלי להוספת סימני מים לתמונות שנוצרו על ידי AI ולזיהוי תמונות כאלה. זהו פתרון טכני מבטיח, בשלבי פיתוח מוקדמים, לבעיה הדחופה של מידע מוטעה באינטרנט.
-
מידע על התמונה הזו
בעזרת הכלי 'מידע על התמונה הזו', אפשר להעריך את רמת המהימנות של תמונות שרואים באינטרנט ולקבל מידע על ההקשר שלהן, לדוגמה: המועד שבו Google גילתה לראשונה תמונה כלשהי ואיך מקורות אחרים משתמשים בתמונה ומתארים אותה.
ב-YouTube אנחנו מחויבים ליצור פלטפורמה שפועלת בצורה אחראית ושהצופים, היוצרים והמפרסמים בקהילה שלנו יוכלו להסתמך עליה. כאן מופיע מידע נוסף על הגישה שלנו.
-
הסרה
אנחנו מסירים תוכן שמפר את המדיניות שלנו, באמצעות שילוב של בודקים אנושיים וטכנולוגיה.
-
קידום
אנחנו מקדמים מקורות מוסמכים של חדשות ומידע, ומספקים לצופים הקשר לגבי התוכן.
-
צמצום
אנחנו מנהלים תוכן בצורה אחראית על ידי צמצום ההפצה של תוכן גבולי ושל מידע מוטעה ומזיק.
-
תגמול
אנחנו גם מתגמלים יוצרים מהימנים במסגרת תוכנית השותפים של YouTube (YPP) על ידי חלוקת הכנסות מפרסום ומגוון מקורות הכנסה אחרים. ב-3 השנים שהסתיימו ביוני 2022 שילמנו יותר מ-50 מיליארד דולר ליוצרים, לאומנים ולחברות מדיה דרך YPP.
אנחנו עובדים באופן פעיל עם מומחים וארגונים, ומשתפים איתם מידע וגם את המשאבים והטכנולוגיות שלנו.
משתפים ידע
משתפים ידע כדי להגן עליכם
אנחנו עובדים בשיתוף עם מומחים מארגונים אזרחיים, וממוסדות אקדמיים וממשלתיים, כדי לטפל בבעיות גלובליות כמו מידע מוטעה, בטיחות בפרסום, תקינות בתהליכי בחירות, AI בניהול תוכן, ומאבק בתופעה של ניצול ילדים באינטרנט. אנחנו גם מפרסמים ממצאי מחקרים ומערכי נתונים לטובת מוסדות אקדמיים כדי שנוכל להמשיך להתקדם בתחום הזה.
ב-YouTube, אנחנו מתייעצים באופן קבוע עם חברי הוועדה המייעצת העצמאית שלנו בנושא תכנים לילדים ולכל המשפחה. הם מייעצים לנו לגבי עדכוני מוצרים ומדיניות, כולל העקרונות שלנו לסביבה בטוחה לקטינים וסדרה של עדכוני מוצרים שמיועדים לקדם בריאות נפשית ואיכות חיים בקרב בני נוער.
משתפים אותות
פועלים בשיתוף עם מומחים כדי להילחם בפרסום תוכן לא חוקי
בנוסף, אנחנו פועלים ביחד עם שותפים כדי לזהות ולשתף אותות ברורים של תוכן פוגעני, לצורך הסרה מהסביבה הכוללת. כל שנה אנחנו משתפים עם National Center for Missing and Exploited Children מיליוני פריטי מידע על סרטונים שהוסרו עקב זיהוי CSAM. אנחנו גם משתתפים ב-Project Lantern, תוכנית שמאפשרת לחברות טכנולוגיה לשתף אותות באופן בטוח ובצורה אחראית. בנוסף, ב-YouTube ייסדנו את פורום האינטרנט הגלובלי למלחמה בטרור (GIFCT), בשיתוף עם גורמים אחרים מהענף. במסגרת הפורום הזה, חברות טכנולוגיה, גורמים ממשלתיים ואזרחיים ונציגים מהאקדמיה עובדים יחד כדי להילחם בפעילות טרור ובפעילות אלימה וקיצונית באינטרנט.
משתפים משאבים
תומכים בארגונים שמטרתם לקדם בטיחות
אנחנו תומכים בארגונים ברחבי העולם שמטרתם לקדם בטיחות באינטרנט ואוריינות מדיה באמצעות תוכניות משמעותיות שכוללות הדרכות וחומרי לימוד, כמו 'גדולים באינטרנט', תוכנית Hit Pause של YouTube ו-Google News Lab. בנוסף, Google ו-YouTube הכריזו על מענק בסך 13.2 מיליון דולר לרשת הבינלאומית לבדיקת עובדות (International Fact-Checking Network, IFCN), כדי לתמוך ברשת שכוללת 135 ארגונים שבהם עוסקים בבדיקת עובדות. בסך הכול, בזכות שיתופי הפעולה שיצרנו, 550,000 עיתונאים רכשו מיומנויות לאימות מקורות בדיגיטל, והעברנו הדרכות באינטרנט לעוד 2.6 מיליון עיתונאים.
אנחנו משתפים כלים שעוזרים לארגונים אחרים להגן על הפלטפורמות ועל המשתמשים שלהם מפני תוכן פוגעני.
-
ערכת הכלים לשמירה על בטיחות של ילדים
אנחנו נותנים לשותפים כמו Adobe ו-Reddit גישה לכלים שלנו, Content Safety API וגם CSAI Match, שעוזרים לתעדף תוכן ויזואלי של התעללות מינית בילדים (CSAM) לצורך בדיקה אנושית. בעזרת הכלים האלו השותפים שלנו מעבדים יותר מ-4 מיליארד קטעי תוכן כל חודש, וכך הם נלחמים בצורה יעילה יותר בהתעללות מינית בילדים באינטרנט.
-
Safebrowsing API
באמצעות Safebrowsing API, באפליקציות לקוח יש אפשרות לבדוק אם כתובות URL נכללות ברשימות של משאבי אינטרנט לא בטוחים שאנחנו מעדכנים באופן שוטף. הכלי הזה מספק הגנה ל-5 מיליארד מכשירים ביום, על ידי הצגת אזהרה למשתמשים לגבי אתרים שמארחים תוכנות זדוניות או תוכנות לא רצויות.
-
ממשקי API לאיכות מידע
ממשקי ה-API שלנו לאיכות מידע עוזרים לבעלי תוכן דיגיטלי ולבעלי פלטפורמות להילחם בפרסום של תוכן מזיק ופוגעני. בעזרת Perspective API מתבצע כל יום עיבוד של 2 מיליארד תגובות, וכך יותר מ-850 שותפים יכולים למנוע הצגה של תגובות מזיקות בכל יום. דוגמאות לארגונים שמשתמשים ב-Perspective API לניהול תגובות פוגעניות באתרים שלהם: New York Times, Reddit ו-Wall Street Journal.
-
Vision API
בעזרת ממשק Vision API שאנחנו מציעים, מפתחים יכולים לזהות ולהסיר תוכן פוגעני. הממשק מאפשר לשלב באפליקציות שלהם פיצ'רים כמו הוספת תוויות לתמונות, זיהוי תווים אופטי (OCR) ותיוג של תוכן בוטה. לאחר אימון קצר, Vision API מסוגל לסווג בהצלחה 80% מהתמונות.
GSEC דבלין
מקפידים על התנהלות אחראית בתחום התוכן בדבלין
Google Safety Engineering Center, שנמצא בדבלין ומטרתו לקדם פרסום תוכן בצורה אחראית, הוא מרכז אזורי של מומחי Google שפועלים למניעת הפצה של תוכן לא חוקי ופוגעני. זהו גם המקום שבו אנחנו יכולים לעבוד בשיתוף עם גורמים שאחראים לקביעת מדיניות, חוקרים וסוכנויות רגולטוריות. הרשת של מרכזי Google Safety Engineering Center מיועדת לתמוך בצוותים שלנו ומאפשרת להם לעבוד בסביבה המתאימה לקידום ולפיתוח הפתרונות של הדור הבא כדי לשפר את הבטיחות באינטרנט.
היום יותר מתמיד, חשוב לנו להשקיע מאמצים כדי לספק מידע ותוכן מהימנים. כדי להתמודד טוב יותר עם האתגרים שקשורים לניהול תוכן, נמשיך להשקיע בפיתוח ובשיפור של כללי מדיניות, מוצרים ותהליכים, כך שתוכלו להתנהל בראש שקט וכולם יוכלו ליהנות מחוויה בטוחה יותר באינטרנט.
על הבטיחות של כולם באינטרנט