Три вопроса к этике использования алгоритмов в благотворительности

почему беспристрастные алгоритмы манипулируют людьми?
поче­му бес­при­страст­ные алго­рит­мы мани­пу­ли­ру­ют людь­ми?

Как робо­ты ока­за­лись во вла­сти расо­вых пред­рас­суд­ков, и поче­му бес­при­страст­ные алго­рит­мы мани­пу­ли­ру­ют людь­ми? Раз­ра­бот­ка этич­но­го искус­ствен­но­го интел­лек­та – это созда­ние моста меж­ду машин­ным искус­ствен­ным состо­я­ни­ем и чело­ве­че­ским есте­ствен­ным. Речь идет о систе­мах, кото­рые явля­ют­ся одно­вре­мен­но умны­ми и авто­ном­ны­ми. О трех про­бле­мах, с кото­ры­ми столк­ну­лись раз­ра­бот­чи­ки таких систем, жур­на­лист Теп­ли­цы Юлия Кален­ко­ва пого­во­ри­ла с Ива­ном Нинен­ко, чле­ном экс­перт­но­го сове­та Future Foundation.

Почему роботы проецируют стереотипы людей? 

В нояб­ре 2019 года про­грам­мист Дэвид Ханс­сон пожа­ло­вал­ся, что кре­дит­ный лимит по Apple Card, кото­рый одоб­ри­ли его жене, ока­зал­ся в 20 раз мень­ше, чем у него само­го. Твит Ханс­со­на набрал боль­ше семи тысяч рет­ви­тов, про­грам­ми­ста под­дер­жал в том чис­ле соос­но­ва­тель Apple Стив Воз­няк. На фоне жалоб депар­та­мент финан­со­вых услуг Нью-Йор­ка объ­явил о про­вер­ке бан­ка Goldman Sachs, кото­рый высту­пил парт­не­ром Apple Card. Банк, в свою оче­редь, пред­ло­жил пере­смот­реть кре­дит­ные лими­ты для дер­жа­те­лей кре­дит­ной кар­ты Apple Card после обви­не­ний в сек­сиз­ме.

«С машин­ным обу­че­ни­ем важ­но пони­мать: никто не пишет непо­сред­ствен­но сам алго­ритм. Систе­ме «скарм­ли­ва­ют» боль­шое коли­че­ство дан­ных, что­бы она «виде­ла», как дей­ство­ва­ли в преды­ду­щих ситу­а­ци­ях, допу­стим бан­ков­ские скри­не­ры. А они, как выяс­ни­лось, были доста­точ­но часто пред­взя­ты. То есть сте­рео­тип­ное мыш­ле­ние людей пере­нес­лось на алго­рит­мы», – ком­мен­ти­ру­ет Иван Нинен­ко.

По его сло­вам, этот вопрос ста­нет осо­бен­но ост­рым, если мы, напри­мер, дове­рим искус­ствен­но­му интел­лек­ту оце­ни­вать, кто дол­жен полу­чить бла­го­тво­ри­тель­ную помощь. «Допу­стим, мы гово­рим о том, что у нас есть фонд, кото­рый дол­жен рас­пре­де­лять меж­ду детьми день­ги на лече­ние. Мы можем пред­ста­вить, что деле­ги­ру­ем алго­рит­му при­ня­тие реше­ния, кто полу­ча­ет день­ги, в какой после­до­ва­тель­но­сти, как они рас­пре­де­ля­ют­ся. Важ­но пони­мать, что в таком слу­чае мы, с одной сто­ро­ны, эко­но­мим на затра­тах по ана­ли­зу дан­ных, а с дру­гой – будем вынуж­ден мирить­ся со все­ми плю­са­ми и мину­са­ми теку­щей систе­мы», – резю­ми­ру­ет экс­перт.

Реше­ни­ем про­бле­мы может стать частич­ное уча­стие чело­ве­ка как в про­цес­се при­ня­тия реше­ний, так и в плане ана­ли­за и совер­шен­ство­ва­ния систем. Необ­хо­ди­мо зада­вать новые пара­мет­ры и искать опти­маль­ные резуль­та­ты. Пото­му что если алго­ритм будет дей­ство­вать на осно­ве преды­ду­щих дан­ных, он будет про­сто повто­рять преды­ду­щий опыт.

Усилит ли искусственный интеллект неравенство?

Боль­шин­ство ком­па­ний все еще зави­сят от поча­со­во­го тру­да, когда дело каса­ет­ся про­дук­тов и услуг. Но, исполь­зуя искус­ствен­ный интел­лект, ком­па­ния может зна­чи­тель­но сокра­тить зави­си­мость от чело­ве­че­ской рабо­чей силы, а зна­чит, дохо­ды будет полу­чать мень­шее коли­че­ство людей. В резуль­та­те лица, вла­де­ю­щие ком­па­ни­я­ми, где рабо­ту выпол­ня­ет ИИ, будут полу­чать все день­ги. В 2014 году три круп­ней­шие ком­па­нии Дет­рой­та гене­ри­ро­ва­ли почти такие же дохо­ды, что и три круп­ней­шие ком­па­нии Крем­ни­е­вой доли­ны, толь­ко в Долине в них рабо­та­ло в 10 раз мень­ше сотруд­ни­ков.

«Это вопрос ком­му­ни­сти­че­ско­го харак­те­ра: как рас­пре­де­лять бла­га при про­из­вод­стве его с помо­щью раз­ных ору­дий про­из­вод­ства. Мне кажет­ся, искус­ствен­ный интел­лект не силь­но меня­ет ситу­а­цию, то есть сей­час основ­ные ресур­сы полу­ча­ют про­сто те, у кого уже есть ресур­сы: бога­тые бога­те­ют, бед­ные бед­не­ют. И здесь искус­ствен­ный интел­лект прин­ци­пи­аль­но не меня­ет ситу­а­цию», – счи­та­ет Иван Нинен­ко, под­чер­ки­вая, что это вопрос боль­ше к обще­ству, а не к тех­но­ло­ги­ям.

Могут ли роботы манипулировать людьми?

В 2017 году Нобе­лев­скую пре­мию полу­чил Ричард Тей­лер, кото­рый опи­сал такое поня­тие, как наджинг (nudge –под­тал­ки­ва­ние). Он раз­ра­бо­тал «тео­рию под­тал­ки­ва­ния», «управ­ля­е­мо­го выбо­ра». По сути это спо­со­бы мани­пу­ля­ции чело­ве­че­ским пове­де­ни­ем в мяг­кой фор­ме, без запре­тов и при­ка­зов. Самый про­стой при­мер наджин­га: при запол­не­нии анке­ты на сай­те уже про­став­ле­на галоч­ка напро­тив строч­ки: «Хочу полу­чать реклам­ные пред­ло­же­ния».

Либер­та­ри­ан­ский патер­на­лизм – под­тал­ки­ва­ние к при­ня­тию луч­ше­го реше­ния без огра­ни­че­ния сво­бо­ды выбо­ра. Фрук­ты и сала­ты в сто­ло­вой, выло­жен­ные на уровне глаз и перед десер­та­ми, могут повли­ять на то, что люди едят; откры­тые лест­ни­цы могут под­толк­нуть к тому, что­бы боль­ше ходить. Про­бле­мы с само­кон­тро­лем и без­дум­ный выбор пор­тят жизнь мил­ли­о­нам людей и от под­тал­ки­ва­ния все толь­ко выиг­ра­ют. «Nude. Архи­тек­ту­ра выбо­ра».

«Совре­мен­ные алго­рит­мы хоро­шо про­фи­ли­ру­ют чело­ве­ка, за счет чего тар­ге­ти­ро­ван­ная рекла­ма ста­но­вит­ся более эффек­тив­ной. Эти же алго­рит­мы могут доволь­но эффек­тив­но убеж­дать чело­ве­ка жерт­во­вать или голо­со­вать опре­де­лен­ным обра­зом. Инстру­мен­ты – те же, что и в рекла­ме, про­сто у мар­ке­то­ло­гов воз­ни­ка­ет гораз­до мень­ше эти­че­ских вопро­сов», – ком­мен­ти­ру­ет Иван Нинен­ко.

Это ком­плекс­ная про­бле­ма, и решать ее нуж­но, рабо­тая с людь­ми, при­ви­вая навы­ки руко­вод­ство­вать­ся соб­ствен­ным мне­ни­ем и не под­да­вать­ся мани­пу­ля­ци­ям. Не менее важ­ны дого­во­рен­но­сти в сре­де бла­го­тво­ри­те­лей.

«Упро­щен­но логи­ка зло­упо­треб­ле­ния алго­рит­ма­ми будет выгля­деть сле­ду­ю­щим обра­зом. Мы встра­и­ва­ем на сайт систе­му, кото­рая ана­ли­зи­ру­ет про­филь поль­зо­ва­те­лей и под­би­ра­ет те фото­гра­фии, кото­рые в каж­дом кон­крет­ном слу­чае будут вызы­вать боль­ше все­го эмо­ций. Чем боль­ше эмо­ци­о­наль­ный резо­нанс, тем боль­ше пожерт­во­ва­ния. Так вот, име­ет смысл прий­ти к общим стан­дар­там пове­де­ния – допу­сти­мы ли такие мани­пу­ля­ции?» – ком­мен­ти­ру­ет Иван Нинен­ко.

По мне­нию экс­пер­та, алго­рит­мы ста­вят перед нами зада­чу опре­де­лить­ся с целе­вой функ­ци­ей. Что это в пре­де­ле: про­дол­жи­тель­ность жиз­ни, сча­стье, мак­си­маль­ные зар­пла­ты всех людей, с кото­ры­ми мы рабо­та­ем, мак­си­маль­ные зар­пла­ты всех на пла­не­те? То есть куда мы стре­мим­ся при таком боль­шом коли­че­стве дан­ных, кото­рые мож­но алго­рит­мом ана­ли­зи­ро­вать, настра­и­вать и давать реко­мен­да­ции. Как опи­сы­вать эту функ­цию – боль­шой фило­соф­ский вопрос, ответ на кото­рый пред­сто­ит най­ти. 

Еще по теме