Бегущий искусственный интеллект

Запущена кампания против системы распознавания лиц. Фото с сайта "Роскомсвободы".
Запу­ще­на кам­па­ния про­тив систе­мы рас­по­зна­ва­ния лиц. Фото с сай­та «Рос­ком­сво­бо­ды».

Пра­ва чело­ве­ка в циф­ро­вую эпо­ху тре­бу­ют защи­ты, тех­но­ло­гия рас­по­зна­ва­ния лиц и бое­вые робо­ты долж­ны быть запре­ще­ны – с таки­ми тре­бо­ва­ни­я­ми высту­па­ют пра­во­за­щит­ни­ки.

Инте­рес к теме искус­ствен­но­го интел­лек­та со сто­ро­ны обще­ствен­ни­ков рез­ко появил­ся не так дав­но. Еще в про­шлом году не было боль­ших пуб­лич­ных обсуж­де­ний и дис­кус­сий, а сей­час «Мос­ков­ская хель­синк­ская груп­па» про­во­дит серию встреч, акти­ви­сты запус­ка­ют пети­ции.

С одной сто­ро­ны, может пока­зать­ся, что тех­но­ло­гии во всем полез­ны и при­во­дят толь­ко к раз­ви­тию, но в то же вре­мя они могут при­ве­сти к фор­ми­ро­ва­нию расист­ских, сек­сист­ских пози­ций с помо­щью алго­рит­мов, или обер­нуть­ся циф­ро­вой дик­та­ту­рой. Вспом­нить хотя бы, как в 2018 году акти­ви­ста «Дру­гой Рос­сии» Миха­и­ла Аксе­ля задер­жа­ли в мет­ро по сиг­на­лу с видео­ка­ме­ры, опо­знав­шей его по ори­ен­ти­ров­ке Цен­тра «Э». И он не был в розыс­ке.

Вопрос эти­ки тех­но­ло­гий зву­чит все гром­че. Коман­да МХГ посвя­ти­ла еже­год­ные Бого­ра­зов­ские чте­ния теме прав и сво­бо­ды в циф­ро­вом мире и вопро­сам того, что про­ис­хо­дит с пра­вом на жизнь и на непри­кос­но­вен­ность част­ной жиз­ни. Бес­по­ко­ят про­бле­мы авто­ном­ных систем воору­же­ния (рабо­та­ю­щих без како­го-либо уча­стия чело­ве­ка). Акти­вист­ка Але­на Попо­ва пред­став­ля­ет кам­па­нию Campaign to Stop Killer Robots. Пуга­ет слож­ность рабо­ты алго­рит­мов глу­бин­но­го обу­че­ния (так назы­ва­е­мый «чер­ный ящик») и отсут­ствие цен­но­стей у робо­тов. Имен­но поэто­му акти­ви­сты высту­па­ют про­тив бое­вых робо­тов и при­зы­ва­ют миро­вое сооб­ще­ство объ­еди­нить­ся, решать вопрос на уровне меж­ду­на­род­но­го пра­ва.

Акти­ви­сты уве­ре­ны, что ответ­ствен­ность будет пере­кла­ды­вать­ся с чело­ве­ка на алго­рит­мы, а воен­ные пре­ступ­ле­ния могут лег­ко пре­вра­тить­ся в «издерж­ки вой­ны». Игно­ри­ро­вать эти­че­ские вопро­сы в тех­но­ло­ги­ях ста­но­вит­ся про­сто опас­но для раз­ви­тия обще­ства.

Пра­во­за­щит­ни­ки бес­по­ко­ят­ся за чело­ве­че­скую жизнь, пра­ва и сво­бо­ды, пере­при­ду­мы­ва­ют новый кодекс, кото­рые помо­жет граж­да­нам чув­ство­вать себя защи­щен­ны­ми, а не геро­я­ми рома­на Ору­эл­ла.

Наша коман­да посвя­ща­ет кон­фе­рен­цию и мастер­скую теме искус­ствен­но­го интел­лек­та: рос­сий­ские иссле­до­ва­те­ли, социо­ло­ги и акти­ви­сты вме­сте с экс­пер­та­ми из Цен­тра изу­че­ния буду­ще­го интел­лек­та CFI Кем­бридж­ско­го уни­вер­си­те­та раз­би­ра­ют­ся, как меня­ет­ся обще­ство. 

Осе­нью в Рос­сии почти в одно вре­мя про­ис­хо­дит запуск двух обще­ствен­ных кам­па­ний про­тив рас­по­зна­ва­ния лиц: пер­вая пети­ция коман­ды акти­вист­ки Але­ны Попо­вой «мое лицо – мои дан­ные» и дру­гая – от спе­ци­а­ли­стов «Рос­ком­сво­бо­ды».

Аргу­мен­ты тако­вы: граж­дане не дава­ли согла­сие (по зако­ну необ­хо­ди­мо давать согла­сие на обра­бот­ку пер­со­наль­ных дан­ных, но с систе­мой рас­по­зна­ва­ния это не рабо­та­ет), зло­упо­треб­ле­ния, утеч­ки дан­ных, мас­со­вая слеж­ка, изме­не­ние пове­де­ния и то, что вас могут задер­жать по ошиб­ке (про­цент оши­боч­но­го рас­по­зна­ва­ния дости­га­ет 35%, вли­я­ют наци­о­наль­ность, воз­раст и пол). На сего­дня две пети­ции под­пи­са­ли око­ло шести тысяч чело­век. И пока МВД рас­ши­ря­ет систе­му рас­по­зна­ва­ния лиц в Москве, в Кали­фор­нии поли­ции запре­ща­ет­ся исполь­зо­вать тех­но­ло­гию рас­по­зна­ва­ния лиц.

В нояб­ре редак­ция Теп­ли­цы будет сно­ва раз­би­рать­ся в теме искус­ствен­но­го интел­лек­та как тех­но­ло­гии, кото­рая несет про­гресс и в то же вре­мя опас­ность. Все мате­ри­а­лы по этой теме мож­но будет най­ти по тегу.

Разо­брать­ся во всем спек­тре тех­но­ло­гий, кото­рые исполь­зу­ют­ся уже сей­час, и понять, насколь­ко они этич­ны, вы може­те в игре «2024». Пред­ставь­те себя на месте пре­мьер-мини­стра и попы­тай­тесь сде­лать так, что­бы тех­но­ло­гии не навре­ди­ли.

Еще по теме