Политические взгляды алгоритмов: YouTube и правые блогеры

Как Youtube политические предпочтения и политический выбор? Изображение: pixabay.com.
Как Youtube поли­ти­че­ские пред­по­чте­ния и поли­ти­че­ский выбор? Изоб­ра­же­ние: pixabay.com.

Мно­гие тех­но­ло­гии были спро­ек­ти­ро­ва­ны так, что­бы казать­ся неви­ди­мы­ми. На поверх­но­сти лишь резуль­тат их дей­ствия. Но что если разо­брать­ся в рабо­те алго­рит­мов – насколь­ко они ней­траль­ны, как под­тал­ки­ва­ют поль­зо­ва­те­лей к тем или иным дей­стви­ям?

Скан­дал с Cambridge Analytica пока­зал, что поль­зо­ва­тель­ские дан­ные – это не столь­ко «новая нефть», сколь­ко новый объ­ект поли­ти­че­ско­го воз­дей­ствия. И это не един­ствен­ный при­мер, когда плат­фор­мы и дру­гие участ­ни­ки инду­стрии под­вер­га­ют­ся кри­ти­ке за свое поли­ти­че­ское вли­я­ние. 

YouTube сей­час явля­ет­ся объ­ек­том при­сталь­но­го вни­ма­ния иссле­до­ва­те­лей, жур­на­ли­стов и акти­ви­стов. Все они хотят понять, какую медиа­сре­ду созда­ет плат­фор­ма и как дизайн алго­рит­мов вли­я­ет на поли­ти­че­ские пред­по­чте­ния и поли­ти­че­ский выбор. И боль­шин­ство соглас­ны с тем, что ради­каль­ный кон­тент, зача­стую пра­вой направ­лен­но­сти, полу­ча­ет при­о­ри­тет в реко­мен­да­ци­ях. Это свя­за­но с отсут­стви­ем доста­точ­но­го регу­ли­ро­ва­ния на плат­фор­ме со сто­ро­ны ком­па­нии, а так­же с дизай­ном алго­рит­мов, цель кото­рых – мак­си­мум при­бы­ли.

Истории платформенной радикализации

Про­бле­мы YouTube хоро­шо иллю­стри­ру­ет исто­рия 26-лет­не­го Кале­ба Кей­на, рас­ска­зан­ная The New York Times в июне 2019 года. Моло­дой чело­век «упал в кро­ли­чью нору альт-райт видео», про­смат­ри­вая кон­тент попу­ляр­ных пра­вых бло­ге­ров, кри­ти­ку­ю­щих совре­мен­ный феми­низм, левую про­им­ми­гра­ци­он­ную поли­ти­ку и дис­курс соци­аль­ной спра­вед­ли­во­сти.

Исто­рия ради­ка­ли­за­ции Кале­ба Кей­на, рас­ска­зан­ная им самим на сво­ем YouTube-кана­ле

В ста­тье так­же визу­а­ли­зи­ру­ют­ся изме­не­ния в исто­рии про­смот­ров Кей­на, пока­зы­ва­ю­щие его посте­пен­ную ради­ка­ли­за­цию. И эта исто­рия не един­ствен­ная: схо­жие вещи мож­но уви­деть в рас­ска­зе 15-лет­не­го Дэви­да Шер­рат­та. И на виду лишь вер­хуш­ка айс­бер­га. Соглас­но отче­ту Pew Research Center, в 2018 году 85% под­рост­ков в США исполь­зо­ва­ли YouTube, что дела­ет его самой попу­ляр­ной плат­фор­мой. 

Алго­рит­мы име­ют пря­мое отно­ше­ние к поль­зо­ва­тель­ско­му опы­ту на плат­фор­ме. Дол­гое вре­мя YouTube мак­си­ми­зи­ро­вал про­смот­ры, пред­ла­гая поль­зо­ва­те­лю видео, кото­рые он выбе­рет с боль­шей веро­ят­но­стью. Но в мар­те 2012 года ком­па­ния изме­ни­ла свою поли­ти­ку, решив вме­сто это­го мак­си­ми­зи­ро­вать вре­мя, кото­рое люди про­во­дят за про­смот­ром.

По выра­же­нию быв­ше­го инже­не­ра плат­фор­мы Гий­о­ма Час­ло, биз­нес-модель заклю­ча­лась в том, что­бы сти­му­ли­ро­вать людей про­во­дить боль­ше вре­ме­ни онлайн. Это, в свою оче­редь, уве­ли­чи­ва­ет коли­че­ство рекла­мы и, соот­вет­ствен­но, объ­ем полу­ча­е­мой при­бы­ли. Мно­гие созда­те­ли кон­тен­та пра­во­го сек­то­ра, в отли­чие от сво­их поли­ти­че­ских оппо­нен­тов, смог­ли капи­та­ли­зи­ро­вать эти изме­не­ния.

Они созда­ва­ли про­дол­жи­тель­ные видео­эс­се и стри­мы. Таким обра­зом, поль­зо­ва­те­ли, часто сами того не осо­зна­вая, пере­хо­ди­ли от поли­ти­че­ски ней­траль­ных видео к кон­сер­ва­тив­ным или даже ока­зы­ва­лись на кана­лах с откро­вен­но расист­ски­ми и экс­тре­мист­ски­ми иде­я­ми. 

Исследования правого YouTube сегмента

Инфор­ма­ции о том, как функ­ци­о­ни­ру­ет плат­фор­ма, мало. Иссле­до­ва­те­ли пыта­ют­ся понять, какое поли­ти­че­ское вли­я­ние ока­зы­ва­ет YouTube. Так, экс­пер­ты Берк­ма­нов­ско­го цен­тра изу­че­ния Интер­не­та и обще­ства в Гар­вард­ском уни­вер­си­те­те на осно­ве ана­ли­за 13 529 кана­лов выяс­ни­ли: реко­мен­да­тель­ные систе­мы плат­фор­мы фор­ми­ру­ют «инфор­ма­ци­он­ный пузырь» поли­ти­че­ски пра­вых кана­лов. Даже несмот­ря на раз­ни­цу во взгля­дах авто­ров, они ока­зы­ва­ют­ся свя­зан­ны­ми бла­го­да­ря алго­рит­мам. 

Ребек­ка Лью­ис из неком­мер­че­ско­го иссле­до­ва­тель­ско­го инсти­ту­та Data & Society изу­ча­ла, какую медиа­сре­ду выстра­и­ва­ет YouTube. Ока­за­лось, на плат­фор­ме фор­ми­ру­ет­ся «аль­тер­на­тив­ная сеть вли­я­ния», в кото­рой поли­ти­че­ские инфлю­ен­се­ры «про­дви­га­ют ряд поли­ти­че­ских пози­ций, начи­ная с основ­ных вер­сий либер­та­ри­ан­ства и кон­сер­ва­тиз­ма, вплоть до откры­то­го бело­го наци­о­на­лиз­ма».

Лью­ис изу­ча­ла кон­тент пра­вых кана­лов и смот­ре­ла на то, как выстра­и­ва­ют­ся сети меж­ду ними, напри­мер, при выпус­ке сов­мест­ных видео. В этих сетях появ­ля­ют­ся раз­ные реак­ции на видео. Но, как пишет жур­на­лист Эзра Клей­на, ком­мен­та­то­ров объ­еди­ня­ет то, что они скры­ва­ют идеи под­дер­жа­ния суще­ству­ю­ще­го соци­аль­но­го поряд­ка (напри­мер, ген­дер­ное и расо­вое нера­вен­ство) за фор­ма­том при­тя­га­тель­ной, раз­об­ла­ча­ю­щей левую идео­ло­гию рито­ри­ки и кон­тр­куль­тур­но­го брен­дин­га. 

Визуализация альтернативной сети влияния. Скриншот: Data & Society
Визу­а­ли­за­ция аль­тер­на­тив­ной сети вли­я­ния. Скрин­шот: Data & Society

Алгоритмическая прозрачность

Такая поли­ти­ка YouTube полу­ча­ет ответ в виде ини­ци­а­тив, пыта­ю­щих­ся сде­лать плат­фор­му более понят­ной и под­от­чет­ной. Так, быв­ший инже­нер YouTube Гий­ом Час­ло сей­час стал одним из авто­ров про­ек­та AlgoTransparency, цель кото­ро­го – «инфор­ми­ро­вать граж­дан о том, как алго­рит­мы фор­ми­ру­ют доступ к инфор­ма­ции». Авто­ры про­ек­та ана­ли­зи­ру­ют, какие видео чаще все­го реко­мен­ду­ют­ся поль­зо­ва­те­лям на YouTube. Инстру­мен­та­рий сай­та так­же поз­во­ля­ет посмот­реть резуль­та­ты по само­сто­я­тель­но выбран­но­му запро­су на опре­де­лен­ную дату. 

Еще по теме: Не улы­бай­тесь, вас пыта­ют­ся рас­по­знать

Google так­же посто­ян­но пред­при­ни­ма­ет уси­лия по регу­ли­ро­ва­нию YouTube. В фев­ра­ле 2019 года после скан­да­ла с бло­ге­ром, выло­жив­шим видео суи­ци­да, в офи­ци­аль­ном бло­ге ком­па­нии появи­лось сооб­ще­ние. Оно дава­ло понять, что теперь YouTube будет умень­шать реко­мен­да­ции для видео, кото­рые «могут дез­ин­фор­ми­ро­вать поль­зо­ва­те­лей, пред­ла­гая к про­смот­ру видео­ма­те­ри­а­лы, про­па­ган­ди­ру­ю­щие яко­бы чудо­твор­ное исце­ле­ние, заяв­ле­ния о том, что Зем­ля плос­кая, или откро­вен­но лож­ные утвер­жде­ния о таких исто­ри­че­ских собы­ти­ях, как 11 сен­тяб­ря». В июне это­го же года ком­па­ния пообе­ща­ла «при­сталь­нее взгля­нуть на харас­смент». 

В авгу­сте жур­на­ли­сты The New York Times рас­ска­за­ли, как YouTube спо­соб­ство­вал пра­во­му пере­во­ро­ту в Бра­зи­лии. В част­но­сти, он при­вел к вла­сти пре­зи­ден­та Жаи­ра Бол­со­на­ру. Послед­ний, к сло­ву, утвер­жда­ет, что без соци­аль­ных медиа он не смог бы занять эту долж­ность. В то же самое вре­мя мно­гие иссле­до­ва­ния, в том чис­ле извест­ный про­ект антро­по­ло­га Дэни­е­ла Мил­ле­ра «Why We Post», гово­рят о том, что люди поль­зу­ют­ся соци­аль­ны­ми сетя­ми по-раз­но­му. Кон­текст име­ет зна­че­ние и фор­ми­ру­ет локаль­ные осо­бен­но­сти того, какие прак­ти­ки фор­ми­ру­ют­ся вокруг, каза­лось бы, уни­вер­саль­ных плат­форм. Несмот­ря на это, пара­док­саль­но, что YouTube про­из­во­дит схо­жий эффект во мно­гих стра­нах, а имен­но – попу­ля­ри­за­цию пра­вых взгля­дов. 

И про­бле­ма здесь состо­ит не в том, что алго­рит­мы были спро­ек­ти­ро­ва­ны целе­на­прав­лен­но с при­о­ри­ти­за­ци­ей подоб­но­го кон­тен­та. Ско­рее, про­бле­ма заклю­ча­ет­ся в соче­та­нии биз­нес-моде­ли плат­фор­мы и более гло­баль­ных соци­аль­ных и поли­ти­че­ских изме­не­ний. Но сей­час уже ясно то, что соци­аль­ные медиа сде­ла­ли поли­ти­ку дру­гой. Если преж­ние поли­ти­че­ские инсти­ту­ты име­ют зна­че­ние для граж­дан, то за изме­не­ни­я­ми в буд­то бы ней­траль­ном тех­но­ло­ги­че­ским дизайне необ­хо­ди­мо сле­дить всем заин­те­ре­со­ван­ным сто­ро­нам.