Что делать с этикой в технологиях?

Почему важна этика в технологиях? Apple, Google, Facebook, Microsoft, а за ними и другие компании попытались институционализировать «этичную разработку».Изображение: futuref.org
Поче­му важ­на эти­ка в тех­но­ло­ги­ях? Apple, Google, Facebook, Microsoft, а за ними и дру­гие ком­па­нии попы­та­лись инсти­ту­ци­о­на­ли­зи­ро­вать «этич­ную разработку».Изображение: futuref.org

Игно­ри­ро­вать эти­че­ские вопро­сы в тех­но­ло­ги­ях опас­но для раз­ви­тия обще­ства. Одна­ко мало про­сто думать про это – нуж­но опре­де­лить­ся с эти­че­ской систе­мой и ее соци­аль­ны­ми послед­стви­я­ми. Иссле­до­ва­те­ли Лилия Зем­ну­хо­ва, Роман Малюш­кин и Нико­лай Руден­ко Цен­тра иссле­до­ва­ний нау­ки и тех­но­ло­гий Евро­пей­ско­го уни­вер­си­те­та в Санкт-Петер­бур­ге, авто­ры telegram-кана­ла WrongTech объ­яс­ня­ют, поче­му важ­на эти­ка в тех­но­ло­ги­ях и что мож­но со всем этим сде­лать.

Попро­буй­те нашу игру об эти­ке в тех­но­ло­ги­ях!

В 2018 году вопро­сы эти­ки в раз­ра­бот­ке тех­но­ло­гий ста­ли одной из важ­ней­ших тем для обсуж­де­ния в инду­стрии. Круп­ней­шие ИТ-кор­по­ра­ции ста­ли созда­вать внут­рен­ние коми­те­ты и комис­сии по дан­ной теме. Apple, Google, Facebook, Microsoft, а за ними и дру­гие ком­па­нии попы­та­лись инсти­ту­ци­о­на­ли­зи­ро­вать «этич­ную раз­ра­бот­ку». С раз­ви­ти­ем тех­но­ло­гий искус­ствен­но­го интел­лек­та ком­па­нии объ­еди­ня­ют­ся с целью сов­мест­но решать эти вопро­сы, созда­вая сети заин­те­ре­со­ван­ных. 

Эти­ка, мораль, нор­мы – вопро­сы не новые. Они все­гда вызы­ва­ли дис­кус­сии. Где-то они навя­зан­ные и само собой разу­ме­ю­щи­е­ся, как в реги­о­нах с силь­ны­ми тра­ди­ци­он­ны­ми цен­но­стя­ми или жест­ким госу­дар­ствен­ным управ­ле­ни­ем, напри­мер, в Китае. Где-то в каче­стве реше­ния пред­ла­га­ют кодекс, гаран­ти­ру­ю­щий реше­ния в поль­зу граж­дан и защи­ту мини­маль­ных прав поль­зо­ва­те­лей, обя­зы­вая раз­ра­бот­чи­ков быть соци­аль­но ответ­ствен­ны­ми, как это про­ис­хо­дит в слу­чае с GDPR (общий регла­мент по защи­те дан­ных (General Data Protection Regulation, всту­пив­ший в Евро­пей­ском сою­зе в 2018 году – Прим.ред.). Но в боль­шин­стве слу­ча­ев вопро­сы эти­ки ста­но­вят­ся пре­це­дент­ны­ми: пока тех­но­ло­гия не столк­ну­лась с реаль­ной ситу­а­ци­ей в обще­стве, все ее послед­ствия едва ли могут быть учте­ны на эта­пе раз­ра­бот­ки. 

Почему сейчас нельзя игнорировать техноэтику?

Пре­це­ден­тов ста­ло доста­точ­но, что­бы на повест­ке раз­ра­бот­ки ока­зал­ся запрос на спе­ци­а­ли­зи­ро­ван­ную экс­пер­ти­зу. Эти­ка медиа, Интер­не­та, био­тех­но­ло­гий, инже­нер­но­го дела, ком­му­ни­ка­ци­он­ных тех­но­ло­гий, эко­ло­гии и дру­гих направ­ле­ний фор­ми­ру­ют­ся в отдель­ные дис­ци­пли­нар­ные направ­ле­ния и соби­ра­ют сто­рон­ни­ков из ака­де­мии, инду­стрии, граж­дан­ско­го обще­ства. 

Еще по теме: Куда при­ве­дут ваши циф­ро­вые сле­ды?

Тех­но­ло­ги­ей, более все­го отра­жа­ю­щей мно­гие эти­че­ские про­бле­мы, как ни стран­но ока­зы­ва­ет­ся искус­ствен­ный интел­лект. Алго­рит­мы вос­пи­ты­ва­ют­ся на доступ­ных дан­ных, кото­рые в необ­ра­бо­тан­ном виде пред­став­ля­ют собой кри­вое зер­ка­ло пове­де­ния людей в сети. Обу­ча­ясь, эти алго­рит­мы с опти­маль­ны­ми сце­на­ри­я­ми выда­ют те резуль­та­ты, кото­рые ста­ти­сти­че­ски фор­ми­ру­ют пат­тер­ны вза­и­мо­дей­ствий и ком­му­ни­ка­ции. Напри­мер, иссле­до­ва­те­ли сфе­ры искус­ствен­но­го интел­лек­та в ини­ци­а­ти­ве State of AI при­во­дят сле­ду­ю­щие при­ме­ры того, какие ошиб­ки выда­ют алго­рит­мы в 2018 году:

  • на запрос «CEO» поис­ко­вик на пер­вой стра­ни­це резуль­та­тов под кар­тин­ка­ми выда­ет «белых» муж­чин;
  • запро­сы имен, зву­ча­щих как афро­аме­ри­кан­ские, выда­ют рекла­му на про­вер­ку кри­ми­наль­но­го про­шло­го;
  • Google: рас­по­зна­ва­тель фото мар­ки­ру­ет тем­но­ко­жих как «горилл»;
  • HP: каме­ры рас­по­зна­ва­ния лиц не опре­де­ля­ют лица ази­а­тов;
  • Youtube: тех­но­ло­гия «speech-to-text» (пере­вод речи в текст) не рас­по­зна­ет жен­ские голо­са;
  • Amazon: ЛГБТ-лите­ра­ту­ра попа­да­ет в кате­го­рию 18+ и уби­ра­ет­ся из рей­тин­гов про­даж.

Дру­гим при­ме­ром подоб­ных про­блем явля­ет­ся интер­нет вещей. Такие эффек­тив­ные и, на пер­вый взгляд, пози­тив­ные тех­но­ло­ги­че­ские кон­цеп­ции, как «умный дом», «умный город», «забо­та о здо­ро­вье», могут быть направ­ле­ны про­тив граж­дан­ско­го обще­ства. 

Самый яркий при­мер – тоталь­ная систе­ма сле­же­ния и рас­по­зна­ва­ния лиц в Китае. Более 175 мил­ли­о­нов камер бес­пе­ре­бой­но сле­дят за жите­ля­ми горо­дов. Алго­рит­мы на осно­ве их пове­де­ния фор­ми­ру­ют «рей­тинг обще­ствен­ной надеж­но­сти». С 2020 года граж­дане с низ­ки­ми пока­за­те­ля­ми рей­тин­га будут огра­ни­че­ны в ряде полу­че­ния соци­аль­ных услуг (напри­мер, в выда­че кре­ди­та). Кро­ме того, база с дан­ны­ми о мил­ли­ар­де людей явля­ет­ся круп­ной добы­чей для зло­умыш­лен­ни­ков.

Как внедрять этику в технологии?

Эти­ка уже дав­но пред­ло­жи­ла набор систем, кото­рые локаль­но могут быть при­ме­не­ны к любой тех­но­ло­гии. Все эти эти­че­ские систе­мы не внед­ря­ют­ся в тех­но­ло­гии и инфра­струк­ту­ры сами по себе. Обыч­но это пред­ва­ря­ет­ся обсуж­де­ни­я­ми с заин­те­ре­со­ван­ны­ми груп­па­ми и экс­пер­та­ми из раз­ных обла­стей. 

Раз­бе­рем­ся на при­ме­ре бес­пи­лот­ных авто­мо­би­лей. В ско­ром вре­ме­ни они вый­дут на доро­ги обще­го поль­зо­ва­ния в раз­ных стра­нах. Маши­ны без води­те­ля, как ника­кая дру­гая тех­но­ло­гия, пока­зы­ва­ют эти­че­ские дилем­мы и эти­че­ские пред­по­чте­ния, кото­рые необ­хо­ди­мо в них зало­жить. Речь даже не о «про­бле­ме ваго­нет­ки», а о том, что в раз­ных, преж­де все­го евро­пей­ских, стра­нах про­хо­дят обсуж­де­ния отно­си­тель­но того, какие цен­но­сти долж­ны уси­ли­вать­ся или, наобо­рот, ослаб­лять­ся бес­пи­лот­ны­ми авто­мо­би­ля­ми. Эти обсуж­де­ния пока­за­тель­ны, посколь­ку поз­во­ля­ют про­де­мон­стри­ро­вать весь веер воз­мож­но­стей эти­че­ских систем. 

Субъ­ек­тив­ный реля­ти­визм. Пра­виль­ным счи­та­ет­ся то, что счи­та­ет пра­виль­ным отдель­ный инди­вид. Если, ска­жем, отдель­ный инди­вид будет счи­тать пра­виль­ным ехать на бес­пи­лот­ни­ке на ско­ро­сти в 140 км в час по ожив­лен­ной город­ской доро­ге, то это его дело. 

Куль­тур­ный реля­ти­визм пред­по­ла­га­ет схо­жую логи­ку, но для отдель­ной этни­че­ской, рели­ги­оз­ной или соци­аль­ной груп­пы. Напри­мер, все поль­зо­ва­те­ли бес­пи­лот­ных авто­мо­би­лей могут решить, что жизнь и здо­ро­вье всех осталь­ных чле­нов обще­ства – это не такая важ­ная цель, а вот их ком­форт и ско­рость – это доми­ни­ру­ю­щие цен­но­сти. И с пози­ции куль­тур­но­го реля­ти­виз­ма к ним не будет вопро­сов.

Кан­ти­ан­ство дела­ет акцент на дол­ге и важ­но­сти жиз­ни отдель­но­го чело­ве­ка. Если бес­пи­лот­ный авто­мо­биль делать с акцен­том на кан­ти­ан­скую систе­му цен­но­стей, то он дол­жен дей­ство­вать так, что­бы спа­сти все воз­мож­ные чело­ве­че­ские жиз­ни, а так­же ста­рать­ся най­ти мак­си­маль­ный баланс в удоб­стве поль­зо­ва­ния доро­гой раз­ны­ми людь­ми. Отдель­ные аспек­ты кан­ти­ан­ства мож­но уви­деть сего­дня в реко­мен­да­ции немец­ко­го Мини­стер­ства транс­пор­та и циф­ро­вой инфра­струк­ту­ры в отно­ше­нии бес­пи­лот­ных авто­мо­би­лей.

Ути­ли­та­ризм. Про­ти­во­по­лож­ность кан­ти­ан­ства. Для него осно­ва­ни­ем явля­ет­ся то, насколь­ко те или иные дей­ствия тех­но­ло­гии при­ве­дут к сча­стью как мож­но боль­ше­го коли­че­ства людей. Ути­ли­тар­ный бес­пи­лот­ник, во-пер­вых, будет ста­рать­ся нано­сить вред как мож­но мень­ше­му коли­че­ству людей, пото­му что это бла­го для обще­ства. А во-вто­рых, он может начать про­пус­кать более важ­ные маши­ны, кото­рые полез­нее для обще­ства, напри­мер, гру­зо­ви­ки, как это при­ня­то на доро­гах Индии (хотя там еще нет бес­пи­лот­ни­ков).

Систе­ма соци­аль­но­го кон­трак­та пред­по­ла­га­ет, что осно­ва­ние эти­ки – это зако­ны, и пото­му необ­хо­ди­мо сде­лать бес­пи­лот­ник таким, что­бы он про­сто под­чи­нял­ся пра­ви­лам ПДД. Это вызы­ва­ет бурю про­те­стов от тех, кто пони­ма­ет, что на доро­ге мно­го нефор­маль­ных пра­вил. Нефор­маль­ные пра­ви­ла при­зна­ют как про­бле­му и сре­ди раз­ра­бот­чи­ков (см., напри­мер, интер­вью гла­вы раз­ра­бот­ки бес­пи­лот­ни­ков Яндек­са).

Кон­цеп­ция устой­чи­во­го раз­ви­тия в каче­стве глав­ной эти­че­ской цен­но­сти при­зна­ет эко­ло­гию и соб­ствен­но устой­чи­вое раз­ви­тие горо­дов и тер­ри­то­рий. Она пред­по­ла­га­ет, что бес­пи­лот­ни­ки долж­ны быть более здо­ро­вы­ми для окру­жа­ю­щей сре­ды, и неже­ла­тель­но, что­бы они были лич­ны­ми авто­мо­би­ля­ми.

Нако­нец, тео­рия соци­аль­ной спра­вед­ли­во­сти пред­по­ла­га­ет, что спра­вед­ли­во то, что спо­соб­ству­ет равен­ству раз­ных групп в обще­стве. Это, навер­ное, одна из самых важ­ных эти­че­ских систем, посколь­ку, как пока­зы­ва­ют обсуж­де­ния зако­но­про­ек­та о бес­пи­лот­ни­ках в Вели­ко­бри­та­нии, люди с актив­ным сти­лем жиз­ни, вело­си­пе­ди­сты, пеше­хо­ды – все боят­ся, что бес­пи­лот­ные авто­мо­би­ли вытес­нят их с дорог в отдель­ные город­ские анкла­вы. 

Доми­ни­ру­ю­щий на сего­дня тех­но­кра­ти­че­ский под­ход в раз­ра­бот­ке тех­но­ло­гий тре­бу­ет пере­смот­ра и вклю­че­ния новых акто­ров на раз­ных эта­пах про­из­вод­ства, кото­рые могут под­ни­мать и обсуж­дать эти­че­ские вопро­сы. Сме­на пара­диг­мы раз­ра­бот­ки может быть реа­ли­зо­ва­на толь­ко бла­го­да­ря раз­но­об­ра­зию учи­ты­ва­е­мо­го экс­перт­но­го и иссле­до­ва­тель­ско­го зна­ния. Оно долж­но лечь в осно­ву при­ня­тия тех­но­ло­ги­че­ских реше­ний еще до закры­тия «чер­но­го ящи­ка» алго­рит­ма или про­дук­та.

Уже не толь­ко соци­аль­ные иссле­до­ва­те­ли при­хо­дят к мне­нию о том, что раз­ра­бот­ка тре­бу­ет при­вле­че­ния участ­ни­ков со сво­и­ми силь­ны­ми сфе­ра­ми экс­пер­ти­зы, осо­бен­но если речь идет о соци­аль­ном раз­ви­тии: необ­хо­ди­мо уча­стие соци­аль­ных уче­ных, локаль­ных сооб­ществ, соци­аль­но ори­ен­ти­ро­ван­ных НКО и дру­гих пред­ста­ви­те­лей граж­дан­ско­го обще­ства. Сов­мест­ное уча­стие раз­ра­бот­чи­ков и раз­ных обще­ствен­ных пред­ста­ви­те­лей ста­вит новый круг задач и вызо­вов, но реше­ние этих вопро­сов ока­зы­ва­ет­ся, в конеч­ном сче­те, не менее важ­ным для гар­мо­нич­но­го раз­ви­тия тех­но­ло­гий.

2024: Сыграйте в игру про этику в технологиях

Вы – премьер-министр. Развалите или спасете страну? Исследователи запустили игру про этику в технологиях. Иллюстрация: Наталья Ямщикова.
Вы – пре­мьер-министр. Раз­ва­ли­те или спа­се­те стра­ну? Иссле­до­ва­те­ли запу­сти­ли игру про эти­ку в тех­но­ло­ги­ях. Иллю­стра­ция: Ната­лья Ямщи­ко­ва.

Эта ста­тья при­уро­че­на к запус­ку онлайн-игры про эти­ку в тех­но­ло­ги­ях под назва­ни­ем «2024», в созда­нии кото­рой участ­во­ва­ли экс­пер­ты.

«В ваших руках огром­ная власть. Ваша зада­ча – улуч­шить жизнь в стране при помо­щи тех­но­ло­гий. Слеж­ка за граж­да­на­ми или без­опас­ность? Тех­но­ло­ги­че­ская без­ра­бо­ти­ца, дро­ны-убий­цы или новые этич­ные тех­но­ло­гии, кото­рые спа­сут мир? Попро­буй­те создать свое буду­щее в онлайн-игре «2024».

Герой игры – пер­вая жен­щи­на пре­мьер-министр восточ­но­ев­ро­пей­ской стра­ны. Госу­дар­ство на раз­вил­ке: от ваших шагов зави­сит, будет ли оно раз­ви­вать­ся, или же пре­вра­тит­ся в анти­уто­пию. Игро­ку пред­ла­га­ет­ся при­нять или отверг­нуть внед­ре­ние раз­ных тех­но­ло­гий: допол­нен­ную реаль­ность, бес­пи­лот­ные авто­мо­би­ли, био­чи­пы, сен­со­ры, пре­дик­тив­ную поли­цию, спут­ни­ко­вый Интер­нет, ком­пью­те­ри­зи­ро­ван­ную обувь и одеж­ду, интер­нет ДНК. Во вре­мя про­хож­де­ния поль­зо­ва­тель узна­ет боль­ше о сути тех­но­ло­гии, какие плю­сы и мину­сы про­изой­дут от ее внед­ре­ния. 

Игру запу­сти­ли спе­ци­а­ли­сты Цен­тра иссле­до­ва­ния нау­ки и тех­но­ло­гий Евро­пей­ско­го уни­вер­си­те­та в Санкт-Петер­бур­ге и обра­зо­ва­тель­но­го про­ек­та Теп­ли­ца соци­аль­ных тех­но­ло­гий при под­держ­ке «Коман­ды 29» 15 октяб­ря 2019 года.

В завер­ше­ние игры поль­зо­ва­те­ли могут под­дер­жать рос­сий­ский обще­ствен­ный про­ект «Рос­ком­сво­бо­да», коман­да кото­ро­го защи­ща­ет циф­ро­вые пра­ва поль­зо­ва­те­лей и борет­ся с цен­зу­рой в Интер­не­те.

Играть.

Еще по теме: