Программируем будущее: этика алгоритмов и демократия технологий

Регулирование и этика алгоритмов требуют демократического подхода. Business vector created by vectorpouch — www.freepik.com.

Алгоритмы постепенно становятся частью нашей повседневной жизни. Это не только «умные» ленты в наших социальных сетях, но и часть аналитики в правоохранительной и медицинской деятельности. Их все больший охват и распространенность вызывают опасения правозащитников, журналистов и политиков по всему миру. Однако уже сейчас активно проходят дискуссии о том, какие этические, политические и социальные вопросы должны обсуждаться и приниматься во внимание законодателями и специалистами технологической индустрии. 

Одна из таких дискуссий «Танец алгоритмов: этичное партнерство или борьба за объективность?» прошла на совместной конференции Теплицы и Гете-Института «Сетевой сентябрь» 3-4 сентября 2020 года. На ней эксперты обсудили, какие проблемы возникают с регулированием алгоритмов и какие способы их решения существуют.

Данные и экономика наблюдения: корпоративная и государственная логика

Руководитель Теплицы Алексей Сидоренко в своем выступлении обратился к работе Шошанны Зубофф «Надзорный капитализм» и рассказал, как идеи этой книги применимы в России. Один из основных тезисов Зубофф в том, что в современной экономике данные становятся новым ресурсом, который технологические компании не просто собирают, но активно используют для аналитики и увеличения прибыли. Это простое замечание у Зубофф приобретает важное следствие – аналитика данных позволяет IT-корпорациям почти незаметно влиять на человеческое поведение. Каждый раз, к примеру, рекомендуя нам новый сервис доставки еды в «Инстаграме», социальная платформа подталкивает нас к новому потребительскому действию. 

По мнению Алексея Сидоренко, особенность России в том, что надзором занимаются и государства, и корпорации. И если в логике компаний данные используются для получения прибыли, то государство же воспринимает данные о гражданах как свою собственность, а это угроза для прав человека. Так, в феврале 2020 года стало известно, что Яндекс.Такси делились с правоохранительными органами данными о перемещениях журналиста-расследователя Ивана Голунова. 

А в случаях, когда компании отказываются делиться данными о своих клиентах с государством, их ждут ответные санкции. Так, работа компании такси-услуг премиум-класса Wheely была приостановлена, после отказа компании от предоставления данных о геолокации клиентов в Департамент транспорта Москвы.

И пока о все большей части нашей жизни собираются данные, проблемы приватности и технологий требуют не только государственного регулирования, но и широкого общественного обсуждения. И тут хочется добавить, что само понятие приватности постоянно меняется и зависит от границ между публичным и частным. Такие границы часто устанавливают сами сообщества, но они также часто кардинально меняются из-за действий корпораций, государств и других сторон. 

Поэтому вопрос приватности – это не только руководства о том, как быть анонимным в сети или самостоятельно защитить свои персональные данные от третьих лиц. Хотя все эти инструменты могут быть полезны, их значимость падает без правовых и политических условий, в которых приватность сохраняется именно как коллективное благо. 

Черные ящики и идеология технологических решений

В обсуждении на панели эксперты обратили внимание на проблему, связанную с алгоритмами, – непрозрачность их работы для граждан. Об алгоритмах часто говорят как о «черных ящиках» – эта метафора подчеркивает, что процессы принятия решений на основе алгоритмов для пользователей непонятны. Принципы работы алгоритма и принятия решений на их основе как будто упакованы в коробочку, в которую мы как граждане посмотреть не можем, несмотря на то, что это технология, имеющая для нас все большее значение. 

Ведь на основе алгоритма автоматически или полуавтоматически уполномоченные люди (руководители компаний, судьи, врачи, сотрудники правоохранительных органов) решают судьбы многих людей, но не всегда ясно, на основе чего алгоритм рекомендует то или иное решение. Более того, мы знаем, как часто алгоритмы воспроизводят расовую и гендерную дискриминацию или как их работа вызывает широкое общественное возмущение. 

Недавний пример такого скандала – в августе 2020 г. в Великобритании из-за пандемии решение об оценке выпускных экзаменов старшеклассников было отдано алгоритмической системе. Как результат – недовольство школьников и их родителей получившимся результатом, протесты и последовавшее напряженное публичное обсуждение.

Эта история также ясно показывает, как алгоритм, основывающийся на исторических данных, может воспроизводить дискриминацию. По сравнению с прошлым годом в 2020 году процент учащихся в старших школах, получивших наивысшие оценки, оказался больше на 4.5 процентного пункта, чем таковой у их ровесников из государственных учреждений. Так вышло из-за того, что алгоритм учитывал оценки учеников в разных школах за прошлые годы. Эта история показывает не только диспропорции в образовательной системе Великобритании, но и то, как алгоритм может усиливать образовательное неравенство. 

Алгоритмическую непрозрачность поддерживает идеология технологического солюционизма, – считает другой эксперт панели Фабио Кьюзи, сотрудник некоммерческой организации AlgorithmWatch. В рамках этой идеологии любая проблема становится проблемой технологии, которую нужно решать исключительно техническими средствами. Но проблемы, которые воспринимают как технические, также являются и социальными – история с алгоритмом в Великобритании это ярко демонстрирует. Для Фабио Кьюзи выход из такой ситуации – это требовать демократического принятия решений, когда речь заходит об алгоритмических системах, и бороться с их восприятием как «черных ящиков», внутрь которых не стоит заглядывать.

На пути к лучшему алгоритмическому будущему

Алгоритмическая непрозрачность – это большая социальная и политическая проблема. Ведь нам часто нужно понимать, как и почему принимаются те или иные решения, затрагивающие нашу дальнейшую жизнь. Это может быть не так значимо, когда мы говорим об алгоритмах рекомендации рекламы в социальных сетях, но приобретает большую значимость, когда речь заходит об образовании или правосудии. 

Для того чтобы справляться с проблемами алгоритмической непрозрачности, необходимо ставить этические вопросы о работе таких систем. Именно этим занимается Михаэль Пунтшу и его коллеги в проекте Algo.Rules. Чтобы алгоритмическое принятие решений могло стать более демократичным и понятным для граждан, авторы Algo.Rules предлагают набор принципов, который может направлять разработку и введение алгоритмических систем. 

Эти принципы следующие: «усилить компетентности, определить ответственность, документировать цели и ожидаемое воздействие, обеспечить гарантию безопасности, провести маркировку алгоритмических систем, обеспечить понятность, соблюдать гарантию управляемости, вести мониторинг воздействия, установить механизмы подачи жалоб». С точки зрения создателей проекта, следование этим принципам позволит сделать исследование, разработку, тестирование и использование алгоритмических систем на практике более этичным и подотчетным. 

В своем интервью для Colta Михаэль объясняет принцип «убедитесь в понятности системы». Он говорит, что для людей важно понимать процедуру принятия решений: эта понятность состоит из двух элементов. Представим, что речь идет о найме сотрудника в конкретную компанию и для рекрутинга используется алгоритм. Тогда понятность алгоритмической системы заключается, с одной стороны, в том, что люди в отделе кадров понимают, как работает алгоритм. С другой же стороны, система должна быть понятна для кандидата, претендующего на позицию.

Хотя критерии и представляют собой достаточно общую рамку для дизайна и введения алгоритмических систем, кажется, что эти принципы дают лучший ориентир, чем полное отсутствие каких-бы то ни было принципов. Без попыток привнести в технологии демократию, как бы мы ее не понимали, у нас не будет возможности приоткрыть эти черные ящики.