Что такое хорошо, что такое плохо. Как конструируют этику искусственного интеллекта

Изображение: Unsplash.

И почему столкнуть толстяка с моста — норм (иногда)

Что такое этика искусственного интеллекта, до сих пор четко не ясно. Каждый документ, регламент и отчет на эту тему представляет свое определение того, что понимается под этикой ИИ. Этому есть две главные причины.

Во-первых, не определены (и возможно, не будут) границы ИИ, и потому это поле знания засаживается вперемежку и алгоритмами, и нейросетями, и машинным обучением, и большими данными, и всем прочим. Но каждая из этих технологий может требовать разных этических обсуждений.

А во-вторых, этика также определяется слишком широко, но при этом она не универсальна, и с ее определением возникает много проблем.

В итоге сфера этики ИИ находится в том состоянии, когда она жизненно необходима, однако недостаточно проработана. Какие решения предлагаются сейчас, и как будет развиваться ситуация дальше?

Этизация технологий

Этические вопросы развития технологий всегда сопровождали изобретения. Чем быстрее открытия и инновации выходят из лабораторий, тем острее оказываются споры о том, благо они несут или вред, кто имеет к ним доступ и какую этот кто-то понесет ответственность, если что…

Но теперь мир имеет дело с цифровыми технологиями, которые оказывают прямое влияние на жизнь почти каждого человека. Поисковики с навязанной контекстной рекламой, предвзятые системы распознавания лиц, уязвимые голосовые ассистенты и социальные роботы, незащищенные персональные данные — все это относится к каждому пользователю цифровых технологий и несет последствия, от безобидных до критичных. 

Искусственный интеллект оказывается в центре внимания по нескольким причинам. 

Алгоритмы отрабатываются изначально на наборах данных, а к этим наборам есть вопросы. Достаточно ли они репрезентативны, то есть отражают ли общество и разные социальные группы? Все ли ситуации и особенности выборки учтены? Есть ли искажения, и можно ли их исправлять? Действительно ли результаты имеют отношение к реальным жизненным ситуациям? 

Не важно, идет ли речь о распознавании текста, изображений, видео или звука, — риски и ограничения есть всегда. Чат-боты быстро начинают хамить, потому что учатся на наших реальных разговорах. Афроамериканцы вдруг маркируются как гориллы. Женские голоса оказываются плохо распознаваемыми. А лицо и походка могут и вовсе стать основой для составления социального рейтинга. 

Кроме этого, разработчики признают, что алгоритмы остаются «черными ящиками». Никто точно не знает, что происходит внутри процесса обработки данных. Этот факт неконтролируемости алгоритмов оборачивается опасностями автономной работы систем, которым, например, нельзя делегировать принятие самостоятельных решений. Какие функции можно полноценно делегировать? Есть ли необходимость постоянного или частичного контроля? Где заканчивается граница самостоятельности? Кто несет ответственность за сбои? 

Яркий пример — беспилотный автомобиль, сбивший пешехода. Этот и схожие инциденты, а точнее, их причины, — сфера внимания регуляторов и тех, кто определяет ответственность за происшествия и неправильную работу алгоритмов.

И в конце концов, технологии ИИ не работают в вакууме, являясь частью бóльших социотехнических систем. Они взаимодействуют в связке с другими алгоритмами и данными, а также людьми. Уязвимость в одной небольшой части платформы может произвести реальные последствия в другой. Так сливаются базы персональных данных пользователей, взламываются системы безопасности в мессенджерах, а таксисты создают пробку на Кутузовском проспекте из-за ложных вызовов.

Кажется, что в этой проблеме больше технологического, но на самом деле эти вопросы имеют прямое отношение к границам доступа к персональным данным и ответственности за их хранение и распространение.

Как скинуть толстяка с моста и не переживать

Этические вопросы — почти всегда дилеммы, у которых нет правильного ответа. Самый большой прогресс в дискурсе об этике ИИ — это финальный отказ после длительной критики от модели моральной машины. К этому тесту очень много вопросов, он оброс толстым слоем претензий и в конечном итоге не имел шансов оказаться хорошим решением проблемы программирования беспилотного автомобиля. Но что удалось этому тесту, так это подтвердить, насколько глубоко этика и мораль укоренены в культуру и общество. Этика подвижна, не универсальна и очень (очень!) плохо калькулируема. И что делать?

Примерно с 2017 года можно увидеть институционализацию этического движения в ИИ. Это означает рост академических публикаций на тему этики в алгоритмах, аналитических и экспертных докладах, где речь идет именно об этике ИИ. Также в некоторых технокомпаниях учредили этические комитеты, а политики начали принимать ряд официальных и рекомендательных документов на национальном и глобальном уровнях.

И вот спустя пять лет мы имеем внушительный ландшафт принятых документов и рекомендаций, где закреплены основные проблемы этики ИИ. Их можно суммировать примерно так.

Номер один: как правильно операционализировать этику ИИ? Все национальные стратегии, глобальные рекомендации и профессиональные отчеты оперируются одним и тем же набором принципов для разработки ИИ: прозрачность, надежность, подотчетность, равный доступ (недискриминация), безопасность, достоверность, проверяемость, контролируемость. Но социальные исследователи настойчиво повторяют, что эти принципы могут сами быть плохо операционализируемы, в чем-то предвзяты, да и противоречить друг другу!

Вторая проблема заключается в том, что невозможно создать универсальные этические рекомендации, тем более «сверху вниз». Как показал многострадальный тест «моральная машина», разные люди руководствуются разными этическими и моральными ориентирами. Здесь невозможна универсальность, тем более для такого многообразного технологического гибрида, как «искусственный интеллект».

Изображение: Unsplash.
Изображение: Unsplash.

Споры об этичном в одном контексте будут выглядеть иначе, чем в другом, и поэтому вместо универсальности необходимо достигать балансирования между ключевыми дилеммами. Например, приватность vs безопасность; прозрачность vs защищенность.

Третья, не менее сложная проблема заключается в том, насколько подвижные и постоянно меняющиеся алгоритмические системы не схватываются и не имеют шанса быть полноценно учтены регуляторами и стандартизированы. Фиксировать этические вопросы — пока это выглядит как большой вызов. 

Сейчас регуляторы совместно с разработчиками пытаются согласовать и внедрить подход ethics by designто есть учет этических аспектов наравне с технологическими на ранних этапах проектирования технологии. Разумеется, такая задача многократно усложняет сам процесс разработки и требует иных компетенций от разработчиков. Это движение должно кардинально поменять подход к инженерному образованию, что, вообще-то, долгий путь.

Но что можно сделать прямо сейчас?

Не этичное, а социальное

Социальные исследователи технологий стремятся заниматься конкретными прикладными вопросами работы технологий в обществе. Если посмотреть на обзор исследований в этой сфере, под зонтик «этики ИИ» попадает все то, что относится к социально приемлемому поведению технологий в самом широком смысле.

Я отсылаю здесь к социальным исследователям беспилотных автомобилей — Мелиссе Цефкин и Эрику Винхёйзену, которые за термином «социально приемлемое» закрепили общие установки для разработчиков в Nissan. На практике это означает, что от технологий ожидается такое поведение, которое как минимум не будет наносить вред и урон, а как максимум будет встраиваться в существующий социальный порядок. В этом заложено довольно неоднозначное допущение, что текущий социальный порядок является этичным, но это уже другая история… 

Год назад исследователь Дмитрий Муравьев обозначал дискуссии вокруг этики ИИ как балансирование между независимостью и критикой. Я бы к этому добавила еще три тенденции, которые сейчас обсуждаются разными экспертами: AI Localism, этика риска, экосистемный подход. Если кому-то хочется больше деталей и мнений, можно найти публичные дискуссии, например о роли политики и регулирования на форуме Responsible AI. А я предлагаю свою интерпретацию здесь.

Изображение: Unsplash.
Изображение: Unsplash.

Первая тенденция — AI Localism — это концепция, которую предлагают Мона Слоан и Стефан Верлорен в качестве решения острой проблемы универсальности. Пока все пытаются решить глобальные этические вопросы и найти подходящие решения моральных дилемм, лучшими работающими практиками оказываются локальные решения. Чтобы доказать эту идею, они создали краудсорсинговый репозиторий, где собирают и описывают лучшие практики применения ИИ. Туда попадают как готовые и готовящиеся проекты, реализующие принципы этичности на уровне городов и стран (Барселона, Сингапур или Манчестер), так и проекты по сопротивлению неэтичным технологическим системам. 

Например, в Ниссеваарде активисты добились прекращения использования алгоритма Totta Data Lab для профилирования получателей социального обеспечения, а городской совет Санта-Круза запретил использование полицией методов прогнозирования. Логично, что самое сложное в этой тенденции — ее масштабируемость. Но кейсовый подход как раз хорош тем, чтобы показывать состоятельность тех или иных решений.

Вторая тенденция — попытка операционализировать этику не через принципы, а через риски как более эффективный способ справиться со всем комплексом проблем. Этот поворот к рискам звучит в духе рыночных аргументов при разработке и оказывается наиболее понятным для индустрии и государств. 

Мне это напоминает ситуацию с гендерным неравенством в IT. Самый понятный аргумент все еще просвечивается через экономическую линзу — женщин выгодно нанимать и с точки зрения рынка труда (рынок программистов перегрет, а женщин все еще недостаточно в сфере); и с точки зрения новых идей (у них другой жизненный опыт, они могут придумать продукты, которые могут расширять целевую аудиторию). В ИИ примерно такая же логика: если показать экономическую целесообразность просчета рисков и работы с ними, задача реализации этических принципов обретает понятные многим смыслы. 

Социальные исследователи тоже поддерживают эту идею. Здесь можно привести пример исследований беспилотных автомобилей Свена Нихольма. Эксперты по этической разработке, такие как Мариа Аксенте, также ратуют за стратегию снижения рисков как один из базовых принципов. Это хорошая начальная попытка переопределить смысл «этичности», хотя она также требует работы вдолгую, как и ethics by design.

И наконец, третья тенденция — переместить фокус с задачи регулирования на выстраивание экосистемы (как бы избито это ни звучало). Это необходимо сделать по той причине, что сейчас в обсуждении «приемлемого» может участвовать лишь небольшое количество акторов — разработчики, эксперты и полиси-мейкеры. В публичных обсуждениях должно найтись место голосам очень разных участников: социальным ученым, НКО, уязвимым группам населения.

Уже существуют наглядные кейсы подготовки важных документов такими совместными усилиями. В 2017 году профессиональная ассоциация IEEE (Институт инженеров электротехники и электроники) выпустила вторую версию документа «Ethically Aligned Design V2», собрав публичную обратную связь к первой версии документа объемом в 316 страниц. Так выглядит подотчетность, ответственность и прозрачность, которые должны стать основой разработки любых политик. 

Самое популярное

Будьте с нами на связи, независимо от алгоритмов

Telegram-канал E-mail рассылка RSS-рассылка
Как победить алгоритмы: прочитай инструкции, как настроить приоритетный показ материалов в социальных сетях и подключить RSS-ленту.
Мы продолжаем поддерживать вас: учитесь, развивайтесь, действуйте
  • Помощь тьюторов
    и экспертов
  • Поддержка
    сообщества
  • Обратная связь
    по итоговому заданию
  • Сертификат
    после обучения
4527
Слушателей
на платформе
Узнать больше