Почему важно сделать Поиск безопасным
Мы привыкли решать в интернете любые вопросы: работать, общаться и даже лечиться. Я уверен: когда у вас были проблемы со здоровьем, вы в 100% случаев искали информацию в интернете, а к врачу обращались далеко не всегда.
С самыми важными проблемами мы приходим в Поиск. То, что оказалось в топе, определяет решение проблемы.
Поиск — последний помощник в сложной ситуации и единственное место, где человек не врёт.
Что делать, если пользователь спрашивает: «Как лечить рак содой»? В интернете есть такие статьи. Что должна делать идеальная поисковая система? Ответить «Друг, не валяй дурака, не лечится рак содой» мы не можем. Хочется сказать, что нельзя заниматься самолечением и обвеситься дисклеймерами. Но никто не смотрит на дисклеймеры, они превращаются в слепое пятно.
Мы не можем решать за людей, что хорошо, а что плохо. Задача Поиска — находить информацию всегда.
Даже в Поиске с применением генеративного ИИ мы стараемся дать ответ со ссылкой, откуда эта информация. Идеальный ответ: «Вот источник, там есть такая информация, а дальше решайте сами, верить этому или нет».
Как определить, какие ответы этичные?
В Поиск приходят с миллионами самых разных запросов, и это большая ответственность. Поэтому наша работа — сомневаться. Нам помогает математический бэкграунд, мы привыкли проверять гипотезы, искать доказательства. Мы не можем просто верить на слово и позволяем себе чего-то не знать.
Мы вмешиваемся в ранжирование результатов поисковой выдачи, только когда информация несёт явную угрозу жизни и здоровью людей. И ещё есть вопросы, которые регламентируются законом — в этом случае всё просто. Но остаётся большая серая этическая зона.
Кто отвечает за решения, которые принимает ИИ?
Наши алгоритмы стали настолько хороши, что их решения и действия воспринимаются как действия человека. Крупным компаниям нельзя пользоваться своими инструментами, чтобы влиять на жизни людей. Например, у нас нет права рекомендовать подросткам классическую музыку, чтобы влиять на их образование, решать за них, что это хорошо.
Важно помнить: ответственность за алгоритмы несут люди, которые их обучают. Очевидно, что это мы делаем разметку, ставим задачу, и модель учится на наших решениях. Недопустимо говорить «Я не при делах, так решил алгоритм». Это наш алгоритм, мы делали его по образу и подобию себя.
Почему у многих сервисов нет права на ошибку
В ответах ChatGPT редко встречаются ссылки. У Алисы есть навык «давай придумаем» — она отвечает, и это становится её мнением. В таких ситуациях источником информации пользователь считает компанию, которая сделала этот сервис.
Компания может сказать: «Алгоритм несовершенен, где-то неверные данные, в следующий раз ответ может быть другим». Но для пользователя это ответ компании, решение, которому он доверяет.
Когда сервисом пользуются миллионы людей, ошибки становятся настолько важными, что не существует приемлемого процента ошибок.
Сложных вопросов очень много:
- Можно ли делать скидки в день рождения или Татьянин день, это никого не обидит?
- Может ли Алиса вести себя проактивно или она должна только отвечать на вопросы?
- Может ли нейросеть генерировать иконы, ведь это религиозное изображение?
- Как отвечать на запросы «назови лучший футбольный клуб» или «лучший сервис для поиска авиабилетов»?
В каждом примере — этический вопрос, который раньше никогда не решали.
Каждое решение принимают люди, а ИИ — это способ размножить эти решения. Поэтому важно помнить об ответственности, сомневаться в себе, смотреть на метрики — тогда наши сервисы будут максимально этичными.