Международные фонды пожертвовали 27 млн долларов на изучение искусственного интеллекта

Руководители благотворительных фондов убеждены, что разработки по созданию искусственного интеллекта должны проходить под общественным контролем. Изображение с сайта pixabay.com (СС0).
Руководители благотворительных фондов убеждены, что разработки по созданию искусственного интеллекта должны проходить под общественным контролем. Изображение с сайта pixabay.com (СС0).

Несколь­ко меж­ду­на­род­ных фон­дов и неком­мер­че­ских орга­ни­за­ций созда­ли коа­ли­цию инве­сто­ров для изу­че­ния алго­рит­мов искус­ствен­но­го интел­лек­та в поль­зу обще­ствен­но­го бла­га. Они вло­жи­ли 27 млн дол­ла­ров на рабо­ту иссле­до­ва­те­лей.

Инве­сто­ра­ми ста­ли аме­ри­кан­ская неком­мер­че­ская орга­ни­за­ция The Knight Foundation, соци­аль­ная сеть LinkedIn (в Рос­сии забло­ки­ро­ва­на. – Прим. ред.) и бла­го­тво­ри­тель­ная инве­сти­ци­он­ная ком­па­ния Omidyar Network.

Руко­во­ди­те­ли орга­ни­за­ций убеж­де­ны, что раз­ра­бот­ки по созда­нию искус­ствен­но­го интел­лек­та долж­ны про­хо­дить под обще­ствен­ным кон­тро­лем. А к обсуж­де­нию нуж­но при­вле­кать не толь­ко инже­не­ров и пред­ста­ви­те­лей кор­по­ра­ций, но и уче­ных, фило­со­фов, эко­но­ми­стов, юри­стов и поли­ти­ков. Так­же они хотят полу­чить гаран­тии, что искус­ствен­ный интел­лект при­не­сет поль­зу обще­ству.

Еще по теме: Топ-10 тех­но­ло­гий 2017 года: искус­ствен­ный интел­лект, «умные» вещи и машин­ное обу­че­ние

Осо­бое вни­ма­ние пла­ни­ру­ет­ся уде­лить теме эти­ки и мораль­ных цен­но­стей при исполь­зо­ва­нии искус­ствен­но­го интел­лек­та.

«Нуж­ны гаран­тии, что искус­ствен­ный интел­лект при­но­сит поль­зу обще­ству и мини­ми­зи­ру­ет вред», Рид Хофф­ман, осно­ва­тель LinkedIn.

Хофф­ма­на под­дер­жал осно­ва­тель Omidyar Network Пьер Оми­дь­яр: «Как тех­но­лог я впе­чат­лен неве­ро­ят­ной ско­ро­стью раз­ви­тия тех­но­ло­гий искус­ствен­но­го интел­лек­та. Как филан­троп и бла­го­тво­ри­тель я хотел бы, что­бы эти­че­ские нор­мы не упус­ка­лись из виду», – отме­тил экс­перт.

Исследователи будут изучать несколько направлений:

  1. попу­ля­ри­за­ция и доход­чи­вое объ­яс­не­ние AI (как луч­ше общать­ся: с помо­щью слов или про­цес­сов?);
  2. этич­ный дизайн алго­рит­мов (как созда­вать дизайн тех­но­ло­гий, кото­рый будет учи­ты­вать эти­че­ские рам­ки и мораль­ные цен­но­сти?);
  3. чест­ность и под­от­чет­ность алго­рит­мов (какие эле­мен­ты будут вре­дить, а какие при­но­сить поль­зу обще­ству?);
  4. рас­ши­ре­ние ауди­то­рии темы (при­вле­че­ние инже­не­ров и пред­при­ни­ма­те­лей, кото­рые будут дей­ство­вать на бла­го обще­ства);
  5. про­дви­же­ние инно­ва­ций в этой обла­сти.

Дирек­тор лабо­ра­то­рии Media Lab Мас­са­чу­сет­ско­го инсти­ту­та Джой Ито убеж­ден, что интел­лек­ту­аль­ные маши­ны в буду­щем долж­ны быть не толь­ко «умны­ми», но и соци­аль­но ответ­ствен­ны­ми.

Науч­ные рабо­ты будут про­хо­дить на базе лабо­ра­то­рии MIT Media Lab Мас­са­чу­сет­ско­го тех­но­ло­ги­че­ско­го инсти­ту­та и Гар­вард­ской шко­лы пра­ва (Berkman Klein Center for Internet & Society at Harvard University).

Пол­ный текст заяв­ле­ния о созда­нии коа­ли­ции на сай­те The Knight Foundation (eng).