מידע ותוכן

שאפשר להסתמך עליהם

ב-Google אנחנו שואפים לאזן בין עזרה במציאת מידע לבין הגנה על המשתמשים והחברה. אנחנו מתייחסים ברצינות לאחריות הזו. המטרה שלנו היא לתת גישה למידע ולתוכן מהימנים ולשם כך אנחנו מגינים על המשתמשים מפני תוכן מזיק, מספקים מידע מהימן ופועלים בשיתוף עם מומחים וארגונים כדי לשפר את רמת הבטיחות באינטרנט.

מגינים עליכם מפני תוכן מזיק.

אנחנו שומרים על הבטיחות שלכם ושל כלל הציבור בעזרת אמצעי הגנה מתקדמים שנועדו למנוע פרסום של תוכן מזיק ולא חוקי, וגם לזהות תוכן כזה ובעקבות זאת, לבצע פעולות לגביו.

מניעה

מונעים ניצול לרעה

כדי להגן על אנשים מפני תוכן פוגעני, אנחנו מפעילים אמצעי הגנה מבוססי-AI. ב-Gmail אנחנו חוסמים באופן אוטומטי כמעט 10 מיליון אימיילים של ספאם כל דקה כדי שלא יגיעו לתיבות דואר נכנס, וחיפוש Google כולל כלים למניעת הצעות של שאילתות שיכולות להיות מזיקות במסגרת 'השלמה אוטומטית'. ב-YouTube, אמצעי זיהוי אוטומטיים עוזרים להסיר תוכן פוגעני באופן יעיל, אפקטיבי ונרחב – ברבעון השני של שנת 2023,‏ 93% מהסרטונים שהוסרו מ-YouTube עקב הפרת מדיניות זוהו לראשונה באופן אוטומטי. אנחנו גם מיישמים אמצעי הגנה בכלי ה-AI הגנרטיבי שלנו כדי למזער את הסיכון שהם ישמשו ליצירת תוכן פוגעני.

בנוסף, כל אחד מהמוצרים שלנו כפוף לקבוצה של כללי מדיניות, שבהם מתואר מהם תוכן והתנהגות מקובלים ומהם תוכן והתנהגות בלתי הולמים. אנחנו פועלים באופן שוטף כדי לחדד ולעדכן את כללי המדיניות שלנו במטרה לטפל בסיכונים חדשים. במסגרת העבודה שלנו בתחום ה-AI, אנחנו פועלים גם בהתאם לעקרונות ה-AI‏ שלנו, שמנחים אותנו בפיתוח מוצרים ועוזרים לנו לבדוק ולהעריך כל יישום של טכנולוגיית AI לפני השקה.

זיהוי

מזהים תוכן פוגעני

השיטות של גורמים זדוניים מתפתחות, ועלינו להשקיע יותר מאמצים כדי לזהות תוכן פוגעני שמחדירים למוצרים שלנו. בעזרת AI, אנחנו יכולים להרחיב את יכולות הזיהוי של ניצול לרעה בכל הפלטפורמות שלנו. באמצעות מסווגים מבוססי-AI, תוכן פוגעני פוטנציאלי מסומן במהירות להסרה או להעברה לטיפול של בודק אנושי. בשנת 2022 אמצעי אכיפה אוטומטיים עזרו לנו לזהות ולחסום יותר מ-51.2 מיליון מודעות שכללו דברי שטנה, תוכן אלים והצהרות מזיקות בנושא בריאות. כמו כן, באמצעות מודלים גדולים של שפה (LLM), סוג של טכנולוגיית AI פורצת דרך, הזמן שנדרש לזיהוי ולהערכה של חומר מזיק יכול להתקצר באופן מעריכי ‒ במיוחד לגבי סיכונים חדשים שרק מתחילים להשפיע על המערכת.

אנחנו גם עובדים עם ארגונים חיצוניים שבהם מסמנים תוכן שעלול להזיק. ב-Google וגם ב-YouTube אוספים נתוני משוב ממאות משתתפים בתוכנית Priority Flagger, ארגונים ברחבי העולם שבהם יש מומחים לענייני תרבות ומומחים בתחום, שמעבירים לנו תוכן לצורך בדיקה.

תגובה

מגיבים בצורה הולמת

בעזרת בודקים אנושיים ומערכות מבוססות-AI, אנחנו מבצעים הערכות לגבי הפרות מדיניות אפשריות ומגיבים בהתאם לתוכן שמדווח. כשקטע תוכן מפר את המדיניות שלנו, אנחנו יכולים להגביל או להסיר אותו, ולבטל את המונטיזציה או לבצע פעולות ברמת החשבון כדי לצמצם מקרים של ניצול לרעה בעתיד.

בשנת 2022, במסגרת מפות Google חסמנו או הסרנו יותר מ-300 מיליון קטעי תוכן מזויף ו-115 מיליון ביקורות שהפרו את המדיניות, ומנענו 20 מיליון ניסיונות ליצירת פרופילים מזויפים של עסקים. ברבעון השני של 2023, ב-YouTube הוסרו יותר מ-14 מיליון ערוצים ו-7 מיליון סרטונים עקב הפרת הנחיות הקהילה שלנו.

כדי לבצע הערכות לגבי הקשר ופרטים קטנים, וגם להפחית את הסיכוי להסרת-יתר של תוכן, אנחנו מסתמכים על כ-20,000 בודקים אנושיים שהוכשרו לעבוד במגוון תפקידים כדי לאכוף את כללי המדיניות שלנו, לנהל תוכן ולהעריך תוכן שדווח במסגרת המוצרים והשירותים של Google.

יוצרים או מפרסמים שחושבים שקיבלנו החלטה שגויה יכולים לערער על ההחלטה.

מספקים מידע מהימן.

אנחנו מספקים מידע מהימן ואת הכלים הטובים בתחום כדי שתוכלו לשלוט בשיטות הערכת התוכן, ולהסתמך על המידע והתוכן שבפלטפורמות שלנו.

איך אנחנו מארגנים מידע

אלגוריתמים חכמים

האלגוריתמים שאנחנו מעדכנים באופן שוטף הם חלק מרכזי מהפעילות שלנו, בכל סוגי המוצרים – ממפות Google עד תוצאות בחיפוש Google. באלגוריתמים האלה משולבים מודלים גדולים ומתקדמים של שפה (LLM) ואותות כמו מילות מפתח או עדכניות של אתרים ותוכן, כדי שתוכלו למצוא את התוצאות הכי רלוונטיות ושימושיות. למשל, במסגרת תוצאות החיפוש, ההמלצות וחלוניות המידע ב-YouTube מוצג בצורה בולטת תוכן באיכות גבוהה ממקורות מוסמכים כדי שאנשים יוכלו למצוא במהירות מידע וקטעי חדשות שימושיים ומדויקים.

כלים שיעזרו לכם להעריך את מהימנות התוכן

פיתחנו כמה פיצ'רים שיעזרו לכם להבין ולהעריך את התוכן שמוצג בעזרת האלגוריתמים שלנו וכלי ה-AI הגנרטיבי, ויספקו הקשר נוסף לתוכן שמוצג לכם באינטרנט.

מנהלים תוכן בצורה אחראית ב-YouTube

ב-YouTube אנחנו מחויבים ליצור פלטפורמה שפועלת בצורה אחראית ושהצופים, היוצרים והמפרסמים בקהילה שלנו יוכלו להסתמך עליה.
כאן מופיע מידע נוסף על הגישה שלנו.

עובדים עם שותפים כדי לשפר את הבטיחות באינטרנט.

אנחנו עובדים באופן פעיל עם מומחים וארגונים, ומשתפים איתם מידע וגם את המשאבים והטכנולוגיות שלנו.

משתפים ידע

משתפים ידע כדי להגן עליכם

אנחנו עובדים בשיתוף עם מומחים מארגונים אזרחיים, וממוסדות אקדמיים וממשלתיים, כדי לטפל בבעיות גלובליות כמו מידע מוטעה, בטיחות בפרסום, תקינות בתהליכי בחירות, AI בניהול תוכן, ומאבק בתופעה של ניצול ילדים באינטרנט. אנחנו גם מפרסמים ממצאי מחקרים ומערכי נתונים לטובת מוסדות אקדמיים כדי שנוכל להמשיך להתקדם בתחום הזה.

ב-YouTube, אנחנו מתייעצים באופן קבוע עם חברי הוועדה המייעצת העצמאית שלנו בנושא תכנים לילדים ולכל המשפחה. הם מייעצים לנו לגבי עדכוני מוצרים ומדיניות, כולל העקרונות שלנו לסביבה בטוחה לקטינים וסדרה של עדכוני מוצרים שמיועדים לקדם בריאות נפשית ואיכות חיים בקרב בני נוער.

משתפים אותות

פועלים בשיתוף עם מומחים כדי להילחם בפרסום תוכן לא חוקי

בנוסף, אנחנו פועלים ביחד עם שותפים כדי לזהות ולשתף אותות ברורים של תוכן פוגעני, לצורך הסרה מהסביבה הכוללת. כל שנה אנחנו משתפים עם National Center for Missing and Exploited Children מיליוני פריטי מידע על סרטונים שהוסרו עקב זיהוי CSAM. אנחנו גם משתתפים ב-Project Lantern, תוכנית שמאפשרת לחברות טכנולוגיה לשתף אותות באופן בטוח ובצורה אחראית. בנוסף, ב-YouTube ייסדנו את פורום האינטרנט הגלובלי למלחמה בטרור (GIFCT), בשיתוף עם גורמים אחרים מהענף. במסגרת הפורום הזה, חברות טכנולוגיה, גורמים ממשלתיים ואזרחיים ונציגים מהאקדמיה עובדים יחד כדי להילחם בפעילות טרור ובפעילות אלימה וקיצונית באינטרנט.

משתפים משאבים

תומכים בארגונים שמטרתם לקדם בטיחות

אנחנו תומכים בארגונים ברחבי העולם שמטרתם לקדם בטיחות באינטרנט ואוריינות מדיה באמצעות תוכניות משמעותיות שכוללות הדרכות וחומרי לימוד, כמו 'גדולים באינטרנט', תוכנית Hit Pause של YouTube ו-Google News Lab. בנוסף, Google ו-YouTube הכריזו על מענק בסך 13.2 מיליון דולר לרשת הבינלאומית לבדיקת עובדות (International Fact-Checking Network,‏ IFCN), כדי לתמוך ברשת שכוללת 135 ארגונים שבהם עוסקים בבדיקת עובדות. בסך הכול, בזכות שיתופי הפעולה שיצרנו, 550,000 עיתונאים רכשו מיומנויות לאימות מקורות בדיגיטל, והעברנו הדרכות באינטרנט לעוד 2.6 מיליון עיתונאים.

משתפים באופן פעיל ממשקי API להגנה על הבטיחות

אנחנו משתפים כלים שעוזרים לארגונים אחרים להגן על הפלטפורמות ועל המשתמשים שלהם מפני תוכן פוגעני.

‫GSEC דבלין

מקפידים על התנהלות אחראית בתחום התוכן בדבלין

Google Safety Engineering Center, שנמצא בדבלין ומטרתו לקדם פרסום תוכן בצורה אחראית, הוא מרכז אזורי של מומחי Google שפועלים למניעת הפצה של תוכן לא חוקי ופוגעני. זהו גם המקום שבו אנחנו יכולים לעבוד בשיתוף עם גורמים שאחראים לקביעת מדיניות, חוקרים וסוכנויות רגולטוריות. הרשת של מרכזי Google Safety Engineering Center‏ מיועדת לתמוך בצוותים שלנו ומאפשרת להם לעבוד בסביבה המתאימה לקידום ולפיתוח הפתרונות של הדור הבא כדי לשפר את הבטיחות באינטרנט.

שירותים שתוכננו מראש להעניק לכם חוויה מועילה ובטוחה יותר באינטרנט.

היום יותר מתמיד, חשוב לנו להשקיע מאמצים כדי לספק מידע ותוכן מהימנים. כדי להתמודד טוב יותר עם האתגרים שקשורים לניהול תוכן, נמשיך להשקיע בפיתוח ובשיפור של כללי מדיניות, מוצרים ותהליכים, כך שתוכלו להתנהל בראש שקט וכולם יוכלו ליהנות מחוויה בטוחה יותר באינטרנט.

גלו איך Google עוזרת לשמור
על הבטיחות של כולם באינטרנט