Убить пассажиров или пешеходов: интернет-тест для машины на автопилоте

Ученым необходимо разработать научную базу для моральных дилемм прежде, чем самоуправляемые машины распространятся повсеместно. Фото: фрагмент промо-видео проекта.
Ученым необходимо разработать научную базу для моральных дилемм прежде, чем самоуправляемые машины распространятся повсеместно. Фото: фрагмент промо-видео проекта.

Тех­но­ло­ги­че­ский инсти­тут Мас­са­чу­сет­са (MIT) запу­стил интер­нет-про­ект под назва­ни­ем Moral Machine. Это сайт с набо­ром тестов, кото­рые долж­ны помочь уче­ным разо­брать­ся с тем, как искус­ствен­ный интел­лект дол­жен совер­шать мораль­ный выбор.

Moral Machine пред­ла­га­ет всем жела­ю­щим прой­ти тест на мораль­ную дилем­му. Если маши­на на авто­пи­ло­те попа­да­ет в ситу­а­цию, когда неми­ну­е­мо кто-то дол­жен погиб­нуть – пас­са­жи­ры или пеше­хо­ды, какой выбор она долж­на сде­лать? Как из двух зол выбрать мень­шее – убить двух пас­са­жи­ров или пять пеше­хо­дов? Как внеш­ний наблю­да­тель, поль­зо­ва­тель дол­жен оце­нить, какое реше­ние явля­ет­ся более при­ем­ле­мым. После про­хож­де­ния теста мож­но срав­нить свой ответ с отве­та­ми дру­гих людей.

Запус­ку сай­та пред­ше­ство­ва­ло иссле­до­ва­ние MIT, в кото­ром уче­ные пыта­лись решить про­бле­му, на какое пове­де­ние нуж­но про­грам­ми­ро­вать авто­пи­лот при подоб­ных экс­трен­ных ситу­а­ци­ях. Опро­шен­ные для иссле­до­ва­ния люди выяви­ли неод­но­знач­ную оцен­ку дей­ствий авто­пи­ло­та.

Респон­ден­ты одоб­ря­ли выбор маши­ны, кото­рая ухо­ди­ла от столк­но­ве­ния с пеше­хо­да­ми и жерт­во­ва­ла пас­са­жи­ра­ми, но сами не гото­вы были ока­зать­ся в роли пожерт­во­ван­ных пас­са­жи­ров.

Этим летом про­изо­шло пер­вое ДТП с леталь­ным исхо­дом с уча­сти­ем маши­ны на авто­пи­ло­те.