Есть ли у искусственного интеллекта права и обязанности?

Права роботов – это концепция, согласно которой люди должны иметь моральные обязательства перед своими машинами, аналогичные правам человека. Изображение: pixabay.com.
Пра­ва робо­тов – это кон­цеп­ция, соглас­но кото­рой люди долж­ны иметь мораль­ные обя­за­тель­ства перед сво­и­ми маши­на­ми, ана­ло­гич­ные пра­вам чело­ве­ка. Изоб­ра­же­ние: pixabay.com.

София – един­ствен­ный в мире робот-андро­ид, кото­рый име­ет граж­дан­ство и пас­порт. Она была спро­ек­ти­ро­ва­на так, что­бы учить­ся и адап­ти­ро­вать­ся к пове­де­нию людей. Адво­ка­там Софии уда­лось най­ти «лазей­ки» в зако­но­да­тель­стве Сау­дов­ской Ара­вии и обес­пе­чить ей пол­но­цен­ные граж­дан­ские пра­ва – то, чего лише­ны сау­дов­ские жен­щи­ны. Кто взял на себя ответ­ствен­ность наде­лять робо­тов пра­ва­ми, и гото­вы ли они к обя­зан­но­стям?

Во вре­мя кон­фе­рен­ции и объ­яв­ле­ния о граж­дан­стве София нахо­ди­лась с непо­кры­той голо­вой и лицом, без хиджа­ба и без муж­чи­ны-опе­ку­на. Тогда, в 2017 году мно­гие сочли это мар­ке­тин­го­вым ходом, но вско­ре София появи­лась на облож­ке жур­на­ла и полу­чи­ла глав­ную роль в филь­ме. А летом 2019 года она ста­ла почет­ным гостем цере­мо­нии откры­тия чем­пи­о­на­та WorldSkills в Каза­ни.

София пошу­ти­ла, что нуж­но смот­реть мень­ше гол­ли­вуд­ских блок­ба­сте­ров и реже слу­шать Ило­на Мас­ка.

Пра­ва робо­тов – это кон­цеп­ция, соглас­но кото­рой люди долж­ны иметь мораль­ные обя­за­тель­ства перед сво­и­ми маши­на­ми, ана­ло­гич­ные пра­вам чело­ве­ка. Пра­ва робо­тов на суще­ство­ва­ние и выпол­не­ние сво­ей мис­сии мож­но свя­зать с обя­зан­но­стью робо­та слу­жить чело­ве­ку. По ана­ло­гии, свя­зы­ва­ю­щей пра­ва чело­ве­ка и его обя­зан­но­сти перед обще­ством. Они могут вклю­чать пра­во на жизнь и сво­бо­ду, сво­бо­ду мыс­ли и выска­зы­ва­ний, а так­же равен­ство перед зако­ном.

Этот вопрос был рас­смот­рен Инсти­ту­том буду­ще­го и Мини­стер­ством тор­гов­ли и про­мыш­лен­но­сти Вели­ко­бри­та­нии. Пра­ви­ла кон­кур­са Лоб­не­ров­ской пре­мии 2003 года так­же преду­смат­ри­ва­ли воз­мож­ность того, что робо­ты могут иметь соб­ствен­ные пра­ва. Если пред­по­ло­жить, что робо­ты уже наде­ле­ны пра­ва­ми, как насчет их обя­зан­но­стей и кон­тро­ля над их испол­не­ни­ем?

Кто контролирует искусственный интеллект

Amazon, Google, Facebook, IBM и Microsoft созда­ли неком­мер­че­ское парт­нер­ство для раз­ра­бот­ки пере­до­во­го опы­та в обла­сти тех­но­ло­гий искус­ствен­но­го интел­лек­та, улуч­ше­ния пони­ма­ния обще­ствен­но­стью и обес­пе­че­ния ИИ плат­фор­мы. Это парт­нер­ство будет про­во­дить иссле­до­ва­ния, обес­пе­чи­вать интел­лек­ту­аль­ное лидер­ство, отве­чать на вопро­сы обще­ствен­но­сти и средств мас­со­вой инфор­ма­ции, а так­же созда­вать учеб­ные мате­ри­а­лы, спо­соб­ству­ю­щие пони­ма­нию тех­но­ло­гий ИИ.

Меж­ду­на­род­ная неком­мер­че­ская ассо­ци­а­ция Инсти­тут инже­не­ров элек­тро­тех­ни­ки и элек­тро­ни­ки (IEEE) раз­ра­бо­тал Гло­баль­ную ини­ци­а­ти­ву по эти­ке авто­ном­ных и интел­лек­ту­аль­ных систем. Тра­ди­ци­он­но обще­ство исполь­зу­ют пра­ви­тель­ство для кон­тро­ля соот­вет­ствия эти­ки рам­кам зако­но­да­тель­ства и пра­во­по­ряд­ка. А наци­о­наль­ные пра­ви­тель­ства, в свою оче­редь, рабо­та­ют сов­мест­но с неком­мер­че­ски­ми орга­ни­за­ци­я­ми для обес­пе­че­ния эти­че­ско­го при­ме­не­ния ИИ.

Напри­мер, Евро­пей­ская комис­сия име­ет экс­перт­ную груп­пу высо­ко­го уров­ня по искус­ствен­но­му интел­лек­ту (High-Level Expert Group on Artificial Intelligence, AI HLEG). В июне 2019 года спе­ци­а­ли­сты при­зна­ли необ­хо­ди­мость отка­зать­ся от исполь­зо­ва­ния ИИ-тех­но­ло­гий для мас­со­во­го отсле­жи­ва­ния и про­гно­зи­ро­ва­ния пове­де­ния людей, госу­дар­ствен­но­го над­зо­ра за каж­дым граж­да­ни­ном.

В отче­те ука­зы­ва­ет­ся пере­чень 33 основ­ных реко­мен­да­ций с дета­ли­за­ци­ей, кото­рые затра­ги­ва­ют все аспек­ты регу­ли­ро­ва­ния, финан­си­ро­ва­ния и сти­му­ли­ро­ва­ния раз­ви­тия и при­ме­не­ния в ЕС тех­но­ло­гий ИИ. В част­но­сти, не реко­мен­ду­ет­ся исполь­зо­вать ИИ для кон­тро­ля за пове­де­ни­ем и финан­со­вым состо­я­ни­ем граж­дан – так, как, напри­мер, в Китае.

«Надеж­ный» ИИ в соот­вет­ствии с реко­мен­да­ци­я­ми AI HLEG пред­по­ла­га­ет защи­ту пер­со­наль­ных дан­ных, кон­троль за ними со сто­ро­ны людей, кото­рым эти дан­ные при­над­ле­жат. ИИ-систе­мы при вза­и­мо­дей­ствии с людь­ми долж­ны иден­ти­фи­ци­ро­вать себя во избе­жа­ние ситу­а­ций, когда, напри­мер, робот при онлайн-обще­нии выда­ет себя за чело­ве­ка.

В Соеди­нен­ных Шта­тах адми­ни­стра­ция Оба­мы раз­ра­бо­та­ла «Дорож­ную кар­ту для поли­ти­ки в обла­сти ИИ», где под­чер­ки­ва­ет­ся: алго­рит­мы могут демон­стри­ро­вать интел­лек­ту­аль­ное пове­де­ние во всем диа­па­зоне когни­тив­ных спо­соб­но­стей.

Скрытая угроза: злонамеренное использование ИИ

Илон Маск: искус­ствен­ный интел­лект – фун­да­мен­таль­ная угро­за суще­ство­ва­ния чело­ве­че­ства.

«Наи­ме­нее страш­ное буду­щее, о кото­ром я могу думать, – это то, в кото­ром мы по край­ней мере демо­кра­ти­зи­ро­ва­ли ИИ, пото­му что если одна ком­па­ния или неболь­шая груп­па людей суме­ют раз­вить бого­по­доб­ный циф­ро­вой суперин­тел­лект, они смо­гут захва­тить мир», – гово­рит Илон Маск, руко­во­ди­тель Tesla и SpaceX.

«Чело­век, будучи дик­та­то­ром, все рав­но умрет. Но для искус­ствен­но­го интел­лек­та смерть не насту­пит. Он будет жить веч­но. Так мы полу­чим бес­смерт­но­го дик­та­то­ра, от кото­ро­го нель­зя спа­стись». Илон Маск

Предо­сте­ре­же­ние о тех­но­ген­ной угро­зе выска­зы­вал и Сти­вен Хокинг: «Люди, чье раз­ви­тие огра­ни­че­но тем­па­ми био­ло­ги­че­ской эво­лю­ции, будут неспо­соб­ны сопер­ни­чать с подоб­ной систе­мой и ока­жут­ся в отста­ю­щих». Уче­ные схо­дят­ся во мне­нии, что необ­хо­ди­мо регу­ли­ро­вать при­ме­не­ние, а не тех­но­ло­гию. В про­тив­ном слу­чае может реа­ли­зо­вать­ся один из нега­тив­ных сце­на­ри­ев.

Неком­мер­че­ская иссле­до­ва­тель­ская ком­па­ния OpenAI, груп­па по управ­ле­нию циф­ро­вы­ми пра­ва­ми Electronic Frontier Foundation и Центр новых под­хо­дов к охране без­опас­но­сти США соста­ви­ли доклад «Вре­до­нос­ное исполь­зо­ва­ние искус­ствен­но­го интел­лек­та». Он опре­де­ля­ет три сфе­ры – циф­ро­вую, физи­че­скую и поли­ти­че­скую, в кото­рых зло­на­ме­рен­ное исполь­зо­ва­ние ИИ наи­бо­лее веро­ят­но.

Циф­ро­вые угро­зы осо­бен­но акту­аль­ны в сфе­ре меж­ду­на­род­ной инфор­ма­ци­он­но-пси­хо­ло­ги­че­ской без­опас­но­сти. Напри­мер, не исклю­че­но исполь­зо­ва­ние чат-бота, что­бы сооб­щить о лож­ном меро­при­я­тии и убе­дить потен­ци­аль­ных жертв его посе­тить. Так­же боты могут быть запро­грам­ми­ро­ва­ны на про­из­вод­ство фей­ко­вых видео­кли­пов с целью поли­ти­че­ских мани­пу­ля­ций. По мере раз­ви­тия ИИ робо­ты смо­гут вызы­вать дове­рие у людей, вовле­кая их в диа­ло­ги, про­во­ци­руя и застав­ляя под­чи­нять­ся.

При­ме­ры циф­ро­вых угроз: DDoS-ата­ки при помо­щи ими­та­ции чело­ве­че­ско­го пове­де­ния (созда­ние таких усло­вий, при кото­рых доб­ро­со­вест­ные поль­зо­ва­те­ли систе­мы не смо­гут полу­чить доступ к предо­став­ля­е­мым систем­ным ресур­сам), авто­ма­ти­за­ция кибер­пре­ступ­ле­ний (обра­бот­ка пла­те­жей или диа­лог с жерт­ва­ми вымо­га­те­лей), при­о­ри­ти­за­ция целей для кибе­р­атак (боль­шие набо­ры дан­ных исполь­зу­ют­ся для более эффек­тив­ной иден­ти­фи­ка­ции жертв, напри­мер, оце­ни­вая лич­ное состо­я­ние).

Физи­че­ские угро­зы свя­за­ны с бес­пи­лот­ны­ми лета­тель­ны­ми аппа­ра­та­ми и авто­ном­ны­ми транс­порт­ны­ми сред­ства­ми для достав­ки взрыв­ча­тых веществ. Пер­вое в исто­рии напа­де­ние робо­та на чело­ве­ка про­изо­шло на тех­но­ло­ги­че­ской выстав­ке China Hi-Tech Fair в китай­ском горо­де Шень­ж­э­нь. Андро­ид моде­ли Little Chubby («Малень­кий тол­стяк»), кото­ро­го созда­ли, что­бы помо­гать детям в уче­бе, вышел из-под кон­тро­ля и начал все кру­шить, постра­дал один чело­век. 

Кон­троль бес­пи­лот­но­го транс­пор­та – одна из самых ост­рых про­блем для пра­во­за­щит­ни­ков сего­дня. У алго­рит­мов есть без­от­каз­ность дей­ствия, но нет внут­рен­них осно­ва­ний и побуж­де­ний, соб­ствен­ных цен­но­стей. Они не могут гуман­но отно­сить­ся к людям – ува­жать чело­ве­че­скую жизнь и чело­ве­че­ское досто­ин­ство. Фор­ма­ли­зо­вать в коде это невоз­мож­но, что, без­услов­но, дела­ет рабо­ту с «умны­ми маши­на­ми» еще слож­нее.

Еще по теме: Поче­му пра­во­за­щит­ни­ки про­тив бое­вых робо­тов

Само­обу­ча­ю­щи­е­ся транс­порт­ные систе­мы с управ­ле­ни­ем на осно­ве ИИ могут быть удоб­ны­ми объ­ек­та­ми для высо­ко­тех­но­ло­гич­ных тер­ро­ри­сти­че­ских атак. Захват тер­ро­ри­ста­ми кон­тро­ля над систе­мой управ­ле­ния транс­пор­том в боль­шом горо­де может при­ве­сти к мно­го­чис­лен­ным жерт­вам.

Поли­ти­че­ские угро­зы обу­слов­ле­ны огра­ни­че­ни­ем сво­бо­ды граж­дан, втор­же­ни­ем в лич­ное про­стран­ство, авто­ма­ти­за­цию ресур­сов для подав­ле­ния ина­ко­мыс­лия. Под­дель­ные отче­ты ново­стей с реа­ли­стич­ны­ми сфаб­ри­ко­ван­ны­ми видео и аудио – при­мер того, как ИИ может мани­пу­ли­ро­вать созна­ни­ем людей. Пер­со­на­ли­зи­ро­ван­ные кам­па­нии дез­ин­фор­ма­ции, запуск аген­тов вли­я­ния, при­вле­че­ние поль­зо­ва­те­лей к опре­де­лен­но­му кон­тен­ту – все это ста­но­вит­ся инстру­мен­та­ми поли­ти­че­ской борь­бы.

Пра­во­за­щит­ни­ца и жур­на­лист­ка Але­на Попо­ва акцен­ти­ру­ет вни­ма­ние на том, как важ­но создать зако­ны, защи­ща­ю­щие при­ват­ность и авто­ном­ность граж­дан. Это необ­хо­ди­мо, что­бы не допу­стить фор­ми­ро­ва­ния циф­ро­вой дик­та­ту­ры в Рос­сии.

Наци­о­наль­ные стра­те­гии раз­ви­тия искус­ствен­но­го интел­лек­та уже раз­ра­бо­та­ны в 30 стра­нах мира. В Рос­сии утвер­жде­на Наци­о­наль­ная стра­те­гия раз­ви­тия искус­ствен­но­го интел­лек­та до 2030 года. К это­му вре­ме­ни долж­ны появить­ся обра­зо­ва­тель­ные про­грам­мы для под­го­тов­ки спе­ци­а­ли­стов в обла­сти ИИ. 

«Венчурный барометр - 2018»: мнения о перспективности некоторых сфер у представителей бизнеса и инвесторов довольно сильно расходятся. Изображение: hightech.fm.
«Вен­чур­ный баро­метр – 2018»: мне­ния о пер­спек­тив­но­сти неко­то­рых сфер у пред­ста­ви­те­лей биз­не­са и инве­сто­ров доволь­но силь­но рас­хо­дят­ся. Изоб­ра­же­ние: hightech.fm.

Под «искус­ствен­ным интел­лек­том» под­ра­зу­ме­ва­ют­ся ком­пью­тер­ное зре­ние, обра­бот­ка есте­ствен­но­го язы­ка, рас­по­зна­ва­ние и син­тез речи, реко­мен­да­тель­ные систе­мы и систе­мы при­ня­тия реше­ний, а так­же пер­спек­тив­ные тех­но­ло­гии, в чис­ле кото­рых тех­но­ло­гии авто­ма­ти­зи­ро­ван­но­го машин­но­го обу­че­ния. На реа­ли­за­цию пла­нов потре­бу­ет­ся 392 мил­ли­ар­да руб­лей в бли­жай­шие пять лет. Пока пра­ви­тель­ство в поис­ке вне­бюд­жет­ных источ­ни­ков финан­си­ро­ва­ния, обще­ствен­ные орга­ни­за­ции заня­ты защи­той прав чело­ве­ка при при­ме­не­нии тех­но­ло­гий искус­ствен­но­го интел­лек­та.

Еще по теме