Сервисы для людей должны быть человечными: как решать вопросы этики AI

НачалоПоиск должен быть безопаснымКак определить этичные ответыКто отвечает за решения ИИУ сервисов нет права на ошибку

В процессе обучения нейросетей технические специалисты сталкиваются со сложными этическими вопросами, на которые не существует однозначных ответов. Эти вопросы слишком важные, и при поиске решений нельзя допускать ошибки. Один неверный ответ искусственного интеллекта может повлиять на жизнь реальных людей, их здоровье и даже изменить их судьбу.

Александр Крайнов, директор по развитию технологий искусственного интеллекта в Яндексе, рассказывает, с какими этическими вопросами разработчики сталкиваются ежедневно.

Мы привыкли решать в интернете любые вопросы: работать, общаться и даже лечиться. Я уверен: когда у вас были проблемы со здоровьем, вы в 100% случаев искали информацию в интернете, а к врачу обращались далеко не всегда.

С самыми важными проблемами мы приходим в Поиск. То, что оказалось в топе, определяет решение проблемы.

Поиск — последний помощник в сложной ситуации и единственное место, где человек не врёт.

Что делать, если пользователь спрашивает: «Как лечить рак содой»? В интернете есть такие статьи. Что должна делать идеальная поисковая система? Ответить «Друг, не валяй дурака, не лечится рак содой» мы не можем. Хочется сказать, что нельзя заниматься самолечением и обвеситься дисклеймерами. Но никто не смотрит на дисклеймеры, они превращаются в слепое пятно.

Мы не можем решать за людей, что хорошо, а что плохо. Задача Поиска — находить информацию всегда.

Даже в Поиске с применением генеративного ИИ мы стараемся дать ответ со ссылкой, откуда эта информация. Идеальный ответ: «Вот источник, там есть такая информация, а дальше решайте сами, верить этому или нет».

В Поиск приходят с миллионами самых разных запросов, и это большая ответственность. Поэтому наша работа — сомневаться. Нам помогает математический бэкграунд, мы привыкли проверять гипотезы, искать доказательства. Мы не можем просто верить на слово и позволяем себе чего-то не знать.

Мы вмешиваемся в ранжирование результатов поисковой выдачи, только когда информация несёт явную угрозу жизни и здоровью людей. И ещё есть вопросы, которые регламентируются законом — в этом случае всё просто. Но остаётся большая серая этическая зона.

Наши алгоритмы стали настолько хороши, что их решения и действия воспринимаются как действия человека. Крупным компаниям нельзя пользоваться своими инструментами, чтобы влиять на жизни людей. Например, у нас нет права рекомендовать подросткам классическую музыку, чтобы влиять на их образование, решать за них, что это хорошо.

Важно помнить: ответственность за алгоритмы несут люди, которые их обучают. Очевидно, что это мы делаем разметку, ставим задачу, и модель учится на наших решениях. Недопустимо говорить «Я не при делах, так решил алгоритм». Это наш алгоритм, мы делали его по образу и подобию себя.

В ответах ChatGPT редко встречаются ссылки. У Алисы есть навык «давай придумаем» — она отвечает, и это становится её мнением. В таких ситуациях источником информации пользователь считает компанию, которая сделала этот сервис.

Компания может сказать: «Алгоритм несовершенен, где-то неверные данные, в следующий раз ответ может быть другим». Но для пользователя это ответ компании, решение, которому он доверяет.

Когда сервисом пользуются миллионы людей, ошибки становятся настолько важными, что не существует приемлемого процента ошибок.

Сложных вопросов очень много:

  • Можно ли делать скидки в день рождения или Татьянин день, это никого не обидит?
  • Может ли Алиса вести себя проактивно или она должна только отвечать на вопросы?
  • Может ли нейросеть генерировать иконы, ведь это религиозное изображение?
  • Как отвечать на запросы «назови лучший футбольный клуб» или «лучший сервис для поиска авиабилетов»?

В каждом примере — этический вопрос, который раньше никогда не решали.

Каждое решение принимают люди, а ИИ — это способ размножить эти решения. Поэтому важно помнить об ответственности, сомневаться в себе, смотреть на метрики — тогда наши сервисы будут максимально этичными.

Поделитесь увиденным

Скопировать ссылку
ТелеграмВКонтакте