Почему правозащитники против боевых роботов

Алимжан Ахметов, Алена Попова, Андрей Юров и Вадим Козюлин на конференции «Игра без правил: роботы-убийцы или искусственный интеллект в военных технологиях». Фото: rosbalt.ru.
Алим­жан Ахме­тов, Але­на Попо­ва, Андрей Юров и Вадим Козюлин на кон­фе­рен­ции «Игра без пра­вил: робо­ты-убий­цы или искус­ствен­ный интел­лект в воен­ных тех­но­ло­ги­ях». Фото: rosbalt.ru.

«Умные маши­ны» пре­успе­ли вез­де – в искус­стве, реше­нии эко­ло­ги­че­ских про­блем и здра­во­охра­не­нии. Что будет, если дове­рить им самое доро­гое – чело­ве­че­скую жизнь? Послед­ствия это­го реше­ния обсу­ди­ли участ­ни­ки пресс-кон­фе­рен­ции «Игра без пра­вил: робо­ты-убий­цы или искус­ствен­ный интел­лект в воен­ных тех­но­ло­ги­ях», кото­рая состо­я­лась в инфор­ма­ци­он­но-ана­ли­ти­че­ском агент­стве «Рос­балт» 10 июня 2019 года. Жур­на­лист Теп­ли­цы Юлия Кален­ко­ва запи­са­ла глав­ные мыс­ли со встре­чи, орга­ни­зо­ван­ной Мос­ков­ской Хель­синк­ской груп­пой.

«Если робот застре­лил чело­ве­ка, кто будет отве­чать? Раз­ра­бот­чик, сама «желе­зя­ка» – то есть алго­ритм, зало­жен­ный в нее, чело­век, взяв­ший на воору­же­ние это­го робо­та? В меж­ду­на­род­ном пра­ве на эти вопро­сы отве­тов пока нет. И непо­нят­но даже, в какой мере будет нестись ответ­ствен­ность», – обо­зна­чи­ла одну из глав­ных про­блем Але­на Попо­ва, юрист, руко­во­ди­тель ана­ли­ти­че­ско­го цен­тра «Эти­ка и тех­но­ло­гии» (центр создан при под­держ­ке науч­но­го сове­та по мето­до­ло­гии искус­ствен­но­го интел­лек­та РАН РФ).

Чле­ны коа­ли­ции Campaign to Stop Killer Robots высту­па­ют за вве­де­ние меж­ду­на­род­но­го запре­та на при­ме­не­ние пол­но­стью авто­ном­но­го смер­тель­но­го ору­жия. Видео кана­ла StopKillerRobots.

У алго­рит­мов есть без­от­каз­ность дей­ствия, но нет внут­рен­них осно­ва­ний и побуж­де­ний, соб­ствен­ных цен­но­стей. Они не могут гуман­но отно­сить­ся к людям – ува­жать чело­ве­че­скую жизнь и чело­ве­че­ское досто­ин­ство. Фор­ма­ли­зо­вать в коде это невоз­мож­но, что, без­услов­но, дела­ет рабо­ту с «умны­ми маши­на­ми» еще слож­нее.

Еще по теме: Эти­ка и мате­ма­ти­ка: зачем коди­ро­вать мораль

Еще одна про­бле­ма, кото­рую сфор­му­ли­ро­ва­ла экс­перт, – «чер­ный ящик». Рабо­та алго­рит­мов глу­бин­но­го обу­че­ния настоль­ко слож­на, что чело­век не смо­жет понять, на осно­ве чего алго­ритм при­нял то или иное реше­ние. Соот­вет­ствен­но, ответ­ствен­ность будет пере­кла­ды­вать­ся с чело­ве­ка на алго­рит­мы. Воен­ные пре­ступ­ле­ния пре­вра­тят­ся в «издерж­ки вой­ны». Без отве­тов оста­ют­ся и дру­гие вопро­сы: как быть с пре­ступ­ны­ми или амо­раль­ны­ми при­ка­за­ми, кото­рые чело­век может отка­зать­ся выпол­нять, а робот нет? Насколь­ко веро­ят­ны ано­ним­ные напа­де­ния и зло­упо­треб­ле­ния тех­но­ло­ги­я­ми?

Дис­кус­сию про­дол­жил Алим­жан Ахме­тов, дирек­тор Цен­тра меж­ду­на­род­ной без­опас­но­сти и поли­ти­ки (Казах­стан), кото­рый под­дер­жи­ва­ет кам­па­нию Campaign to Stop Killer Robots. Он отме­тил, что обсуж­де­ние допу­сти­мых гра­ниц исполь­зо­ва­ния робо­то­тех­ни­ки ведет­ся с 2010 года. А в 2018 году было сфор­му­ли­ро­ва­но три пози­ции по отно­ше­нию к ситу­а­ции:

  • пре­вен­тив­ный мора­то­рий на авто­ном­ные систе­мы (Австра­лия, Бра­зи­лия, Чили);
  • при­ня­тие поли­ти­че­ской декла­ра­ции о сохра­не­нии зна­чи­мо­го чело­ве­че­ско­го кон­тро­ля (Гер­ма­ния, Фран­ция и дру­гие);
  • запрет исполь­зо­ва­ния (США, Изра­иль, Рос­сия, Южная Корея и дру­гие госу­дар­ства, актив­но инве­сти­ру­ю­щие в исполь­зо­ва­ние искус­ствен­но­го интел­лек­та для воен­ных нужд).

Пози­цию Рос­сии не раз обо­зна­чал пре­зи­дент Вла­ди­мир Путин: «Если кто-то смо­жет обес­пе­чить моно­по­лию в сфе­ре искус­ствен­но­го интел­лек­та, то послед­ствия нам всем понят­ны – тот ста­нет вла­сте­ли­ном мира», – резю­ми­ро­вал гла­ва госу­дар­ства в мае 2019 года на сове­ща­нии о раз­ви­тии тех­но­ло­гий в обла­сти искус­ствен­но­го интел­лек­та.

В 2018 году общие рас­хо­ды на науч­но-иссле­до­ва­тель­ские и опыт­но-кон­струк­тор­ские рабо­ты (НИОКР) в США оце­ни­ва­ют­ся в $553 млрд, в Китае – в $475 млрд, в ЕС – в $449,5 млрд. Для Рос­сии при­во­дит­ся в каче­стве оцен­ки сум­ма $58,6 млрд в 2018 году. Таким обра­зом, в сфе­ре финан­си­ро­ва­ния иссле­до­ва­ний стра­на на поря­док отста­ет от лиде­ров. По дан­ным Forbes.ru.

Оппо­ни­ро­вал спи­ке­рам Вадим Козюлин, дирек­тор про­ек­та по новым тех­но­ло­ги­ям и меж­ду­на­род­ной без­опас­но­сти, ПИР-Цен­тра. Он отме­тил: мно­гие экс­пер­ты уве­ре­ны, что робо­ты будут более точ­ны­ми в соблю­де­нии гума­ни­тар­но­го пра­ва. И преж­де чем пере­хо­дить к актив­ным дей­стви­ям – запре­там или санк­ци­о­ни­ро­ва­нию, – нуж­но решить ряд вопро­сов. Напри­мер, что такое авто­ном­ное ору­жие само по себе (мож­но ли, напри­мер, про­ти­во­воз­душ­ную обо­ро­ну счи­тать тако­вым?); что зна­чит «зна­чи­мый чело­ве­че­ский кон­троль» (ведь алго­ритм, зало­жен­ный чело­ве­ком, тоже фор­ма кон­тро­ля).

Итог встре­чи под­вел Андрей Юров, пра­во­за­щит­ник, экс­перт Мос­ков­ской Хель­синк­ской груп­пы, член прав­ле­ния Меж­ду­на­род­ной граж­дан­ской ини­ци­а­ти­вы для ОБСЕ. Он при­звал заду­мать­ся, что про­ис­хо­дит с базо­вы­ми пра­ва­ми чело­ве­ка в циф­ро­вую эпо­ху: пра­вом на жизнь, на непри­кос­но­вен­ность част­ной жиз­ни.

Еще по теме: Бого­ра­зов­ские чте­ния: какие циф­ро­вые про­бле­мы вол­ну­ют пра­во­за­щит­ни­ков

«Даже самые умные меха­низ­мы раз­ра­ба­ты­ва­ют­ся несо­вер­шен­ны­ми суще­ства­ми – людь­ми. А зна­чит, все­гда есть воз­мож­ность ошиб­ки, сто­ит ли в таком слу­чае дове­рять маши­нам?» – заклю­чил экс­перт и под­черк­нул: ждать, когда стра­ны-раз­ра­бот­чи­ки дого­во­рят­ся о запре­те авто­ном­но­го ору­жия, не сто­ит. Про­ти­во­сто­ять этой угро­зе может толь­ко миро­вое граж­дан­ское обще­ство, а для это­го ему при­дет­ся очень быст­ро повзрос­леть и объ­еди­нить­ся.