Как решить «Социальную дилемму»: советуем и критикуем фильмы про технологии на Netflix

Обзор документальных фильмов про IT на Netflix Скриншот из фильма «Запрограммированная предвзятость». Источник: Netflix.

На Netflix вышли два документальных фильма про технологии — «Социальная дилемма» (Social Dilemma) и «Запрограммированная предвзятость» (Coded Bias). Они похожи по тематике, но очень по-разному подходят к постановке социальной проблемы. Один фильм сфокусирован на психологической составляющей, другой — на проблемах неравенства и распределения власти. 

Обе картины говорят о влиянии социальных медиа, платформ и алгоритмов на политику, психологию, приватность и властные отношения. Более того, авторы обоих фильмов позиционируют их как критичные по отношению к взаимовлиянию технологий на общество.

Несмотря на эти сходства, авторы фильмов по-разному рассказывают о природе проблем и возможных решениях. Не буду скрывать свою позицию и скажу сразу, что, на мой взгляд, «Запрограммированная предвзятость» формулирует проблемы и ставит вопросы намного лучше, чем «Социальная дилемма». Почему так, расскажу подробнее.

Рекламное изображение фильма "Социальная дилемма". Источник: Netflix.
Рекламное изображение фильма «Социальная дилемма». Источник: Netflix.

«Социальная дилемма» и психологизация платформенной зависимости

Снятый режиссерами Джефом Орловски и Ларисой Ройдс фильм «Социальная дилемма» концентрируется на влиянии социальных сетей на дезинформацию, психологическое здоровье подростков и политическую поляризацию. Среди экспертов — сооснователь Центра гуманистических технологий Тристан Харрис, профессорка «Гарварда» Шошана Зубофф, писатель и ученый Джарон Ланье, а также бывшие сотрудники таких IT-компаний, как Google, Twitter и Facebook. 

Основная идея фильма как будто бы звучит следующим образом: за вами следят, на вас зарабатывают деньги, бросьте ваш телефон и удалите приложения. Вами бессовестно манипулируют, и это ужасно. Постепенно по ходу просмотра возникают сомнения, насколько этот факт действительно необходимо документировать в 2020 году. После таких глобально значимых в 2010-х событий, как разоблачения Эдварда Сноудена (в 2013 году) или скандал с Cambridge Analytica (в 2018 году), вряд ли на Западе, на который фильм с большей вероятностью и был ориентирован, осталось много людей, кого это и вправду удивит. Но даже если принять, что сам факт слежки еще нужно констатировать, вопросы к фильму все равно остаются. 

Трейлер фильма «Социальная дилемма»

Первый вопрос — это статус детей в картине. Так, один из главных героев — американский подросток из небольшого города — попадает в «кроличью нору». Так часто называют опыт продолжительного просмотра видео по рекомендательными алгоритмам YouTube, которые «ведут» пользователя к конспирологическим теориям и радикально правому контенту. Подробнее о том, как это происходит, можно почитать по ссылке

По сюжету, из-за влияния YouTube подросток радикализируется и становится частью вымышленного политического движения. В конце фильма героя и его сестру (которая, к слову, уверенно отрицает социальные сети) драматично связывает полиция на демонстрации. И здесь проблема в том, что подобное отображение подростков граничит с моральной паникой. Гаджеты, а не недостаточное родительское внимание или обстановка в школе предстают источником всех проблем. Более того, авторы фильма рисуют подростков как безвольных субъектов, которые без сопротивления выполняют исходящие от смартфона приказы. 

Сведения о феномене «кроличьих нор» сейчас фрагментарны, и именно в этом вопросе фильм мог бы выступить как действительно документальный. Вместо драматизированной и нереалистичной истории о вымышленной подростковой радикализации авторы могли бы сосредоточиться на реальных рассказах и свидетельствах такого опыта. И зритель мог лучше прочувствовать, почему YouTube имеет такой политический потенциал и социальные риски. 

Второй вопрос — это позиционирование большей части экспертов (это ранее покинувшие IT-индустрию белые мужчины). В фильме оно устроено следующим образом: эксперты хотели «нести свет и добро», но у них не вышло, и вот они здесь. Перспектива инсайдера, безусловно, ценна для документального фильма. Однако такой акцент в документальном фильме побуждает зрителя считать, что именно эти люди больше всего страдают от сложившейся ситуации. 

Рекламное изображение фильма "Социальная дилемма". Источник: Netflix.
Рекламное изображение фильма «Социальная дилемма». Источник: Netflix.

Проблема есть и с решением, которое озвучивается в фильме. Один из главных экспертов картины Тристан Харрис предлагает особую версию технологического гуманизма. В ней решением проблемы «зависимости от технологий» становится усовершенствованный дизайн, который поможет вновь скрестить вместе интересы человечества и технологические продукты.

Бен Тарнофф и Мойра Вейгель критикуют эту идею: проникновение продуктов в повседневную жизнь пользователей началось с аналогичной идеи о том, что хороший дизайн сделает устройства и приложения удобными и коммерчески привлекательными. Идеи Харриса излишне фокусируются на индивидуальном пользовательском опыте и недостаточно на структурных проблемах Кремниевой долины. То есть ситуации, при которой власть сосредоточена у горстки компаний. 

Таким образом, «Социальная дилемма» излишне спекулирует и психологизирует влияние платформ и алгоритмов. Для авторов главная проблема социальных сетей — это вызывающий психологическую зависимость дизайн. Но как проблема дизайн оказывается абсолютно не связан с социальными, экономическими и политическими аспектами работы IT-индустрии. Документальная картина в конце осторожно и мимоходом говорит о необходимости регулирования, но большей конкретики в этом кино найти нельзя. 

Скриншот из фильма "Запрограммированная предвзятость". Источник: Netflix.
Скриншот из фильма «Запрограммированная предвзятость». Источник: Netflix.

«Запрограммированная предвзятость» и возможность политических изменений

Этот документальный фильм фокусируется на работе американской группы Algorithmic Justice League («Алгоритмическая лига справедливости») и ее основательницы Джо Буламвини. Организация известна своей активистской деятельностью вокруг алгоритмов распознавания лиц и продвижением их запрета или временного ограничения в разных американских штатах. 

Вместе со своими коллегами Джо Буламвини занималась исследованиями алгоритмов распознавания лиц и заложенной в них алгоритмической предвзятости (algorithmic bias). Ученые выяснили, что эти технологии обладают дискриминационным потенциалом, потому что вероятность распознавания лиц разных социально-демографических групп неодинакова. Например, с распознаванием лиц женщин и этнических меньшинств алгоритмы справляются хуже. 

Трейлер фильма «Запрограммированная реальность»

В отличие от «Социальной дилеммы», авторы «Запрограммированной предвзятости» обращают больше внимания на социальные аспекты работы технологий и реальную политическую борьбу вокруг них. 

Авторы «Запрограммированной предвзятости» показывают зрителю, почему алгоритмическая предвзятость — это важная проблема. А также рассказывают, из-за чего она появляется. Более того, авторы фильма приводят важный аргумент: не всегда достаточно сделать алгоритмы одинаково успешными в распознавании лиц разных социально-демографических групп, ведь технология сама по себе может не быть социально желаемой. К примеру, даже если бы распознавание лиц перестало быть предвзятым по отношению к ряду социальных групп, это не означает, что городские сообщества захотели бы иметь ее у себя во дворе. Все же это технология для слежки. 

Скриншот из фильма "Запрограммированная предвзятость". Источник: Netflix.
Скриншот из фильма «Запрограммированная предвзятость». Источник: Netflix.

Как документальный фильм «Запрограммированная предвзятость» отображает борьбу низовых сообществ и активистских групп против технологических систем, которые они считают нежелательными для общества. Их деятельность не столь широко освещается в медиа. Поэтому фиксирование этого процесса в документальном фильме нужно, чтобы лучше понимать разнообразие общественных реакций на поступательную алгоритмизацию общества. Тем самым авторы фокусируются на активном, а не пассивном отношении к текущей ситуации. И кадры речи Буламвини в Конгрессе США удачно подчеркивают возможность политических изменений. 

Наконец, последовательно документируя то, как Буламвини и ее соратники работали с темой алгоритмической предвзятости, авторы фильма дают зрителю возможность наблюдать процесс осознания проблем вокруг алгоритмов как именно политических. И понять, что решение этих проблем заложено в совместной работе, а не переложено на уровень индивидуальной ответственности и пользовательского дизайна. 

«Запрограммированная предвзятость» представляет более оптимистичное видение технологической и политической ситуации. В этом будущем люди являются не пассивными и манипулируемыми объектами слежки со стороны компаний, а активными соучастниками в процессе перестраивания взаимоотношений общества и технологий.