Інформація і контент,
яким можна довіряти
Для нас важливо підтримувати баланс між доступом до інформації і безпекою користувачів та суспільства в цілому. Наша ціль – надавати користувачам надійну інформацію та контент і водночас захищати їх від загроз. Для цього ми співпрацюємо зі спеціалістами в галузі й організаціями, щоб разом робити Інтернет безпечнішим для всіх.
Ми дбаємо про безпеку користувачів і суспільства в цілому, використовуючи додаткові засоби захисту. Вони допомагають виявляти небезпечний і протизаконний контент і боротися з його поширенням.
Запобігання
Запобігаємо порушенням
Щоб оберігати людей від неприйнятного контенту, ми використовуємо технології захисту на основі штучного інтелекту (ШІ). Gmail щохвилини автоматично блокує близько 10 мільйонів повідомлень зі спамом, а в Пошуку є інструменти, які не допускають введення потенційно небезпечних запитів за допомогою функції автозавершення. Системи автоматичного виявлення небезпечного контенту на YouTube допомагають ефективно боротися з ним: у другому кварталі 2023 року 93% відео, видалених із YouTube через порушення правил, було вперше виявлено автоматично. У наших інструментах генеративного штучного інтелекту також є механізми захисту, завдяки яким мінімізується ризик створення небезпечного контенту.
Крім того, кожний наш продукт регулюється набором правил, які описують прийнятні й недопустимі зразки поведінки та контенту. Ми постійно вдосконалюємо й оновлюємо наші правила відповідно до нових безпекових реалій. Ми також спираємося на наші принципи щодо штучного інтелекту, які регулюють розробку продуктів і допомагають нам тестувати й оцінювати кожне рішення на основі ШІ перед його запуском.
Виявлення
Виявляємо небезпечний контент
Оскільки зловмисники постійно винаходять нові методи шахрайства, ми маємо ще ефективніше відстежувати небезпечний контент, який потрапляє в наші продукти. У цьому нам допомагає штучний інтелект. Класифікатори на основі ШІ дають змогу швидко позначати потенційно небезпечний контент, який потрібно видалити або передати на розгляд спеціалістам. У 2022 році автоматизовані системи допомогли нам виявити й заблокувати понад 51,2 млн оголошень, що містили мову ворожнечі, заклики до насильства й небезпечні для здоров’я заяви. Крім того, великі мовні моделі – революційний тип штучного інтелекту – у майбутньому можуть у рази скоротити час, необхідний для виявлення й оцінювання небезпечних матеріалів, особливо пов’язаних із новими ризиками.
Виявляти небезпечний контент нам також допомагають зовнішні організації. Компанії Google і YouTube приймають відгуки від сотень учасників Програми пріоритетних скарг – організацій з усього світу, які володіють культурним контекстом і предметними знаннями й надсилають нам контент на перевірку.
Реагування
Реагуємо належним чином
Оцінювати потенційні порушення правил і вживати заходів щодо позначеного контенту нам допомагають спеціалісти, а також технології на основі ШІ. Якщо певний контент не відповідає нашим правилам, ми можемо обмежити його показ, видалити його, вимкнути його монетизацію або застосувати обмеження до облікового запису, щоб запобігти подальшим порушенням.
У 2022 році на Картах Google було заблоковано чи видалено понад 300 мільйонів неправдивих матеріалів і 115 мільйонів відгуків, що суперечили нашим правилам, а також попереджено 20 мільйонів спроб створити несправжні профілі компаній. У другому кварталі 2023 року на YouTube було видалено понад 14 мільйонів каналів і 7 мільйонів відео, які порушували наші правила спільноти.
Щоб уникнути помилкових видалень, 20 тисяч спеціалістів оцінюють контекст, стежать за дотриманням правил, модерують контент і переглядають позначені матеріали в продуктах і сервісах Google.
Якщо автор або видавець вважає, що ми помилилися, він може подати апеляцію на наше рішення.
Користувачі можуть бути впевнені в інформації і контенті на наших платформах, оскільки ми розміщуємо достовірні дані й надаємо сучасні інструменти для оцінювання контенту.
Як ми впорядковуємо інформацію
Розумні алгоритми
Наші постійно оновлювані алгоритми лежать в основі всього, що ми робимо, – від сервісів, таких як Карти Google, до результатів у Пошуку. Щоб показувати доречні й корисні результати, ці алгоритми добирають контент за допомогою великих мовних моделей, враховуючи такі сигнали, як ключові слова, актуальність даних на сайті тощо. Наприклад, у результатах пошуку й рекомендаціях, а також на інформаційних панелях YouTube ми просуваємо високоякісний контент з авторитетних джерел, щоб допомогти людям знаходити актуальні, точні й корисні новини та інформацію.
Ми створили низку функцій, які допомагають зрозуміти й оцінити контент, виявлений нашими алгоритмами й інструментами генеративного ШІ, щоб дати вам більше інформації про контент, який ви бачите онлайн.
-
Мій центр реклами
Мій центр реклами дає змогу легко керувати рекламою, щоб бачити більше улюблених брендів і менше тих, які вам не подобаються.
-
Перевірка фактів у Пошуку й Новинах
Щодня Google показує 6 млн незалежних перевірок фактів. З нашими сучасними інструментами для перевірки зображень і результатів вам буде простіше виявляти дезінформацію в мережі.
-
Про цей результат
Інструмент "Про цей результат" надає детальну інформацію про сайт, перш ніж ви його відвідаєте, зокрема опис, час першого індексування та відгуки інших користувачів про це джерело й тему.
-
Водяні знаки SynthID
SynthID – це інструмент, який допомагає додавати водяні знаки в контент і виявляти зображення, згенеровані ШІ. Це перспективне технічне рішення на ранньому етапі розробки, яке допомагає боротися з нагальною проблемою дезінформації в мережі.
-
Про це зображення
Інструмент "Про це зображення" надає інформацію про те, коли система Google уперше виявила зображення і як його використовують та описують інші джерела. Це допомагає користувачам оцінювати контекст картинок у мережі й визначати, наскільки вони варті довіри.
Наша команда докладає всіх зусиль, щоб платформа YouTube була надійною і заслуговувала на довіру глядачів, авторів і рекламодавців. Докладніше про наш підхід.
-
Видалення
Ми видаляємо контент, який порушує наші правила. У цьому нам допомагають спеціалісти й технології.
-
Просування
Ми просуваємо авторитетні джерела новин і інформації та забезпечуємо глядачів контекстом.
-
Обмеження
Ми відповідально керуємо контентом, обмежуючи поширення спірних матеріалів і інформації, що вводить в оману.
-
Нагородження
Ми нагороджуємо перевірених авторів через Партнерську програму YouTube, ділячись із ними доходом від реклами, а також прибутками з інших джерел. Протягом трьох років до червня 2022 року в межах цієї програми ми виплатили авторам, виконавцям і медійним компаніям понад 50 млрд доларів.
Ми активно співпрацюємо зі спеціалістами й організаціями, ділимося ресурсами, інформацією і технологіями.
Поширення знань
Обмінюємося знаннями заради вашої безпеки
Ми співпрацюємо з громадськими, науковими й урядовими експертами, щоб боротися з такими глобальними проблемами, як дезінформація, безпека реклами, чесні вибори, ШІ в галузі модерування контенту й протидія експлуатації дітей у мережі. Крім того, ми публікуємо результати досліджень і надаємо набори даних науковцям, щоб сприяти подальшому прогресу в цій галузі.
Ми регулярно консультуємося з нашою незалежною експертною комісією у справах сім’ї і молоді. Разом ми працюємо над оновленнями платформи YouTube і правил її використання, зокрема над принципами щодо контенту для дітей і підлітків, а також оновленнями, які сприяють збереженню здоров’я і благополуччя підлітків.
Обмін сигналами
Разом зі спеціалістами боремося з протизаконним контентом
Ми також виявляємо сигнали явно неприйнятного контенту й ділимося ними з партнерами, щоб видаляти такі матеріали із ширшої екосистеми. Щороку ми передаємо Національному центру зниклих і експлуатованих дітей (NCMEC) у США мільйони хешів матеріалів із зображенням сексуального насильства над дітьми. Крім того, ми беремо участь у програмі Project Lantern, у межах якої технологічні компанії безпечно й відповідально обмінюються сигналами. Платформа YouTube є співзасновницею Глобального інтернет-форуму з протидії тероризму (GIFCT), який об’єднує спеціалістів у галузі технологій, а також урядових, громадських і наукових експертів у боротьбі з тероризмом і жорстоким екстремізмом у мережі.
Надання ресурсів
Підтримуємо організації, що опікуються безпекою
Ми підтримуємо організації, які займаються питаннями медіаграмотності й безпеки в мережі в усьому світі. Ми пропонуємо їм якісні навчальні програми й матеріали, такі як "Безпека дітей в Інтернеті", Hit Pause на YouTube і Google News Lab. Крім того, Google і YouTube оголосили про грант на 13,2 млн доларів для Міжнародної мережі перевірки фактів (IFCN), щоб підтримати 135 організацій-учасниць. Загалом наші партнери допомогли понад 550 тис. журналістів опанувати навички цифрової перевірки інформації, а ми самі навчили ще 2,6 млн людей онлайн.
Ми ділимось інструментами, які допомагають іншим організаціям захищати власні платформи й користувачів від небезпечного контенту.
-
Інструменти для захисту дітей
Ми надаємо партнерам, таким як Adobe й Reddit, доступ до наших інструментів Content Safety API і CSAI Match, завдяки яким вони можуть надсилати матеріали із зображенням сексуального насильства над дітьми на пріоритетну перевірку нашим спеціалістам. Завдяки цим інструментам наші партнери щомісяця обробляють понад 4 млрд матеріалів і ефективніше борються із сексуальним насильством над дітьми в Інтернеті.
-
API безпечного перегляду
Завдяки API безпечного перегляду клієнтські додатки можуть перевіряти URL-адреси, які ми постійно додаємо в списки ненадійних сайтів. Цей інструмент щоденно захищає 5 млрд пристроїв, попереджаючи користувачів про сайти зі зловмисним або небажаним програмним забезпеченням.
-
API для підвищення якості інформації
Наші програмні інтерфейсі для підвищення якості інформації дають змогу видавцям і платформам боротися зі шкідливим і небезпечним контентом. Perspective API обробляє 2 млрд коментарів на день, що допомагає понад 850 партнерам щоденно обмежувати токсичні висловлювання. Серед організацій, які використовують Perspective API для боротьби з образливими коментарями на своїх сайтах, – The New York Times, Reddit і The Wall Street Journal.
-
Vision API
Vision API допомагає розробникам визначати й вилучати небезпечний контент, інтегруючи у свої додатки такі функції, як позначення зображень, оптичне розпізнавання символів і додавання тегів до відвертого контенту. Навіть з обмеженим набором навчальних даних Vision API удалося класифікувати 80% зображень.
GSEC У ДУБЛІНІ
Відповідальне використання контенту
Google Safety Engineering Center for Content Responsibility в Дубліні – це регіональний центр, що бореться з поширенням незаконного й шкідливого контенту, співпрацюючи з дослідниками, директивними й регуляторними органами. Мережа центрів Google Safety Engineering Center – це простір, у якому наші команди мають усе необхідне для розробки нового покоління безпекових рішень.
Зараз як ніколи важливо надавати достовірну інформацію і контент. Щоб розробляти нові методи модерування контенту, ми продовжуємо інвестувати в розробку й удосконалення правил, продуктів і процесів, які захищатимуть користувачів й робитимуть Інтернет безпечнішим для всіх.
про безпеку користувачів в Інтернеті.
-
У наших продуктахДізнайтеся про захист вашої безпеки в усіх продуктах Google.
-
Безпека й конфіденційністьДізнайтесь, як Google захищає конфіденційність вашої особистої інформації і дає вам можливість керувати своїми даними.
-
Сімейна безпекаДізнайтесь, як Google допомагає зробити Інтернет безпечним для всієї сім’ї.
-
КібербезпекаДізнайтесь, як нам вдається захищати більше користувачів в Інтернеті, ніж будь-якій іншій компанії.