Социализация искусственного интеллекта: будут ли роботы чувствовать?

20 лет в психологии изучают отношение людей к искусственным агентам. Изображение: pixabay.com.
20 лет в пси­хо­ло­гии изу­ча­ют отно­ше­ние людей к искус­ствен­ным аген­там. Изоб­ра­же­ние: pixabay.com.

Може­те ли вы испы­ты­вать эмо­ции к алго­рит­мам? Не торо­пи­тесь с отве­том: вспом­ни­те, как вы зли­тесь на нави­га­тор в авто­мо­би­ле или шути­те с Али­сой и Siri. Воз­мож­но, совсем ско­ро они смо­гут отве­чать вам вза­им­но­стью. О том, как тех­но­ло­гии научи­лись рас­по­зна­вать эмо­ции и какое место в буду­щем уго­то­ва­но эмпа­тич­ным робо­там, жур­на­лист Теп­ли­цы Юлия Кален­ко­ва пого­во­ри­ла с Дмит­ри­ем Люси­ным, стар­шим науч­ным сотруд­ни­ком Инсти­ту­та пси­хо­ло­гии РАН, кан­ди­да­том педа­го­ги­че­ских наук.

– Расскажите, пожалуйста, о развитии эмоциональных технологий, эту область чаще называют «аффективные вычисления» (affective computing)?

– Я пред­по­чи­таю исполь­зо­вать сам англо­языч­ный тер­мин affective computing. Наша зада­ча – научить­ся, во-пер­вых, авто­ма­ти­че­ски рас­по­зна­вать чело­ве­че­ские эмо­ции, а во-вто­рых, ими­ти­ро­вать их. Это поз­во­лит, напри­мер, созда­вать ком­пью­тер­ных аген­тов вро­де Али­сы или Siri, кото­рые будут вести себя эмо­ци­о­наль­но. И уже потом мож­но будет нала­дить вза­и­мо­дей­ствие меж­ду эти­ми вир­ту­аль­ны­ми «людь­ми» – ком­пью­тер­ны­ми аген­та­ми, и реаль­ны­ми. Цель – сде­лать это вза­и­мо­дей­ствие есте­ствен­ным, что­бы обе сто­ро­ны реа­ги­ро­ва­ли на эмо­ции друг дру­га.

Сто­ит отме­тить, что эта идея вита­ет в воз­ду­хе с 90‑х годов, то есть это не та ситу­а­ция, когда созда­ли искус­ствен­ный интел­лект, а затем вдруг реши­ли «при­кре­пить» к нему соци­аль­ные навы­ки или спо­соб­ность к рас­по­зна­ва­нию эмо­ций. Мы не про­сто берем искус­ствен­ный интел­лект и обу­ча­ем его, а имен­но изна­чаль­но созда­ем систе­мы, направ­лен­ные имен­но на вза­и­мо­дей­ствие с чело­ве­ком. 

– А как выглядят эти технологии? Я представляю, как собирается база данных, допустим, по распознаванию лиц, а что насчет эмоций?

– Есть несколь­ко под­хо­дов, и ни один из них не иде­а­лен. Про­бле­ма начи­на­ет­ся уже с того, что даже люди по-раз­но­му пони­ма­ют эмо­ции друг дру­га. Пото­му что мы полу­ча­ем инфор­ма­цию об эмо­ци­ях из мас­сы раз­ных источ­ни­ков. Это мими­ка, жести­ку­ля­ция, зву­ча­ние голо­са. Кро­ме эмо­ци­о­наль­ной экс­прес­сии, име­ет зна­че­ние и смысл ситу­а­ции, в кото­рой нахо­дит­ся чело­век. Часто собран­ные из раз­ных источ­ни­ков све­де­ния про­ти­во­ре­чат друг дру­гу. Таким обра­зом, когда мы опре­де­ля­ем эмо­цию чело­ве­ка, весь вопрос в том, насколь­ко точ­но мож­но уга­дать, что имен­но этот чело­век испы­ты­ва­ет.

Кро­ме тех ред­ких слу­ча­ев, когда он одно­знач­но обра­до­ван или испу­ган, труд­но опре­де­лить кон­крет­ную реак­цию. Порой ее не зна­ет и сам чело­век. То есть в каком-то смыс­ле мы кон­стру­и­ру­ем эмо­цию, и это уже, навер­ное, фило­соф­ский раз­го­вор.

И даль­ше все это пере­но­сит­ся на affective computing. Изна­чаль­но пыта­лись делать по-про­сто­му, дума­ли, что эмо­ция про­яв­ля­ет­ся в экс­прес­сии. И если мы пра­виль­но научим ком­пью­тер вос­при­ни­мать и ана­ли­зи­ро­вать выра­же­ние лица, то он опре­де­лит, какую эмо­цию испы­ты­ва­ет чело­век.

Такие попыт­ки пред­при­ни­ма­ют­ся до сих пор, но без боль­шо­го успе­ха – это все­гда очень гру­бый резуль­тат. Но, в прин­ци­пе, один из под­хо­дов в affective computing – ана­ли­зи­ро­вать выра­же­ние лица. Здесь мы име­ем до неко­то­рой сте­пе­ни апри­ор­ные пред­став­ле­ния, какое выра­же­ние лица какой эмо­ции соот­вет­ству­ет.

Датасет для распознавания эмоций на лице. Изображение: neurohive.io.
Дата­сет для рас­по­зна­ва­ния эмо­ций на лице. Изоб­ра­же­ние: neurohive.io.

Совре­мен­ные тех­но­ло­гии лег­ко научи­лись рас­по­зна­вать кон­фи­гу­ра­ции лица. И если бы дей­стви­тель­но каж­дая из кон­фи­гу­ра­ций соот­вет­ство­ва­ла опре­де­лен­ной эмо­ции, зада­ча была бы реше­на. Про­бле­ма в том, что нет пря­мо­го соот­но­ше­ния меж­ду кон­фи­гу­ра­ци­я­ми лица и тем, какие эмо­ции чело­век испы­ты­ва­ет.

Более про­дви­ну­тый под­ход состо­ит не в том, что­бы про­сто ана­ли­зи­ро­вать лицо или зву­ча­ние голо­са, а в том, что­бы исполь­зо­вать машин­ное обу­че­ние. В этом слу­чае мы соби­ра­ем как мож­но боль­ше инфор­ма­ции о чело­ве­ке. То есть мы берем видео, кото­рое раз­ли­ча­ет дви­же­ние. Потом с помо­щью спе­ци­аль­ных про­грамм по это­му видео раз­ли­ча­ем дви­же­ние лица, дви­же­ние тела, зву­ча­ние голо­са и дру­гие пара­мет­ры. Видео дает­ся анно­та­то­рам – живым людям, кото­рые опре­де­ля­ют, какая эмо­ция в тот или иной момент пере­жи­ва­ет­ся пер­со­на­жем.

Нам нужен очень боль­шой объ­ем таких дан­ных, и это отдель­ная слож­ная зада­ча. И вот после того, как огром­ное коли­че­ство видео оце­ни­ло боль­шое коли­че­ство людей и опре­де­ли­ло, какие эмо­ции испы­ты­ва­ют пер­со­на­жи, мы «скарм­ли­ва­ем» эту инфор­ма­цию ней­ро­се­ти. Она обу­ча­ет­ся рас­по­зна­вать эмо­ции не хуже самих анно­та­то­ров.

За 21 год иссле­до­ва­ний Beyond Verbal Communications собра­ла дан­ные о том, что от 35 до 40% эмо­ци­о­наль­ной инфор­ма­ции содер­жит­ся в вокаль­ных инто­на­ци­ях. Про­дукт ком­па­нии ана­ли­зи­ру­ет деся­ти­се­кунд­ные запи­си и извле­ка­ет из них дан­ные об эмо­ци­ях, настро­е­нии, рече­вых при­выч­ках. Ком­па­ния гор­дит­ся базой в 2,3 млн образ­цов голо­са на соро­ка язы­ках мира. Стра­те­гия про­ек­та – на пере­се­че­нии циф­ро­вой меди­ци­ны и встра­и­ва­е­мых вир­ту­аль­ных асси­стен­тов: опре­де­ле­ние эмо­ций по голо­су сни­ма­ет про­бле­му мно­же­ства сле­пых пятен, при­су­щих клас­си­че­ским VPA (вро­де Amazon Echo), уско­ряя внед­ре­ние умных помощ­ни­ков.

Раз­лич­ные ком­па­нии сей­час бьют­ся над тем, что­бы создать боль­шие дата-сеты (dataset, набо­ры дан­ных), раз­ме­чен­ные живы­ми людь­ми, анно­та­то­ра­ми. Оста­ет­ся толь­ко научить систе­мы учить­ся, в част­но­сти, рас­по­зна­вать эмо­ции не хуже, чем живые люди. В целом это уда­ет­ся.

– А какие сложности есть? Как, например, учитывается контекст проживания эмоций?

– Воз­мож­ный путь состо­ит в том, что­бы исполь­зо­вать не толь­ко инфор­ма­цию об экс­прес­си­ях, то есть о выра­же­ни­ях лица, дви­же­ни­ях, зву­ча­нии голо­са, но и еще дру­гую инфор­ма­цию – в том чис­ле о ситу­а­ции, в кото­рой нахо­дит­ся чело­век. Когда рас­по­зна­ют эмо­ции не авто­ма­ти­че­ские систе­мы, а мы, живые люди, учи­ты­ва­ет­ся не толь­ко эмо­ци­о­наль­ная экс­прес­сия, но и логи­ка ситу­а­ции.

Так, если чело­век нахо­дит­ся в ситу­а­ции, где его кто-то оби­жа­ет или драз­нит, то каким бы ни было выра­же­ние лица и как бы ни зву­чал его голос, мы будем пред­по­ла­гать, что он испы­ты­ва­ет что-то нега­тив­ное, оби­жен или раз­дра­жен.

И если даже ничто не изме­нит­ся в лице чело­ве­ка и его голос не дрог­нет, мы пред­по­ло­жим, что он скры­ва­ет свои отри­ца­тель­ные эмо­ции. Это и есть логи­ка ситу­а­ции.

В иде­а­ле наши ком­пью­тер­ные систе­мы долж­ны уметь ее ана­ли­зи­ро­вать. Не про­сто ори­ен­ти­ро­вать­ся на экс­прес­сию, но и пони­мать кон­текст. К эмо­ци­о­наль­ной экс­прес­сии мы пыта­ем­ся в affective computing добав­лять ана­лиз ситу­а­ции, ана­лиз соци­аль­ных вза­и­мо­дей­ствий, реак­ции дру­гих людей, поми­мо наше­го основ­но­го пер­со­на­жа. Это нам помо­га­ет более точ­но опре­де­лить эмо­цию, но про­цесс слож­ный и тру­до­ем­кий.

– А социально-культурный аспект как-то учитывается? Я верно понимаю, что не везде та же улыбка означает радость…

– Да, вы пра­вы, и это одна из про­блем в этой обла­сти. Дей­стви­тель­но, эмо­ции в раз­ных куль­ту­рах и даже в раз­ных соци­аль­ных груп­пах выра­жа­ют­ся по-раз­но­му. То есть мы долж­ны не про­сто брать анно­ти­ро­ван­ные набо­ры дан­ных, но и раз­де­лять их, учи­ты­вая раз­ни­цу мен­та­ли­те­та.

Тогда мы мог­ли бы уже систе­му авто­ма­ти­че­ско­го рас­по­зна­ва­ния эмо­ций учить не про­сто каким-то усред­нен­ным обра­зам, а имен­но куль­тур­но­му опы­ту. Не уве­рен, пред­при­ни­ма­лись ли такие попыт­ки. Частич­но ситу­а­цию спа­са­ет то, что обыч­но тре­бу­ет­ся опре­де­лить эмо­ции опре­де­лен­ных групп людей в опре­де­лен­ных ситу­а­ци­ях. Это­го доста­точ­но для реше­ния при­клад­ных задач.

Напри­мер, нас инте­ре­су­ет удо­вле­тво­рен­ность обслу­жи­ва­ни­ем кли­ен­тов бан­ка, и мы хотим опре­де­лить ее по выра­же­ни­ям лица или дру­гим экс­прес­сив­ным при­зна­кам. Берем dataset, состо­я­щий из кли­ен­тов это­го бан­ка, кото­рые при­хо­дят имен­но в этот банк для полу­че­ния услуг. Тогда наш набор людей, «носи­те­лей» эмо­ции, наш куль­тур­ный и соци­аль­ный кон­тек­сты доста­точ­но жест­ко фик­си­ру­ют­ся. И тогда уже про­ще научить систе­му рас­по­зна­вать эмо­ции.

Но эмо­ции всех людей на Зем­ле и в любых кон­текстах дей­стви­тель­но рас­по­зна­вать про­бле­ма­тич­но. Мне пока неиз­вест­но, что­бы это дела­лось. Каж­дый из нас огра­ни­чен той куль­ту­рой, теми пред­став­ле­ни­я­ми, кото­рые у нас есть. И поэто­му когда мы видим про­яв­ле­ние эмо­ций у людей из дру­гой куль­ту­ры, мы лег­ко можем оши­бить­ся. Самые оче­вид­ные вещи мы, конеч­но, вос­при­мем пра­виль­но, но тон­ко­сти – нет. Этим огра­ни­че­ны и искус­ствен­ные систе­мы.

– Если у нас все же будет искусственный интеллект, способный к эмпатии, наделенный эмоциями, какой у него будет статус? Можно его будет приравнивать, допустим, к гражданину? 

– Если корот­ко, я не знаю. Таки­ми вопро­са­ми долж­ны зани­мать­ся спе­ци­а­ли­сты по эти­ке. Каза­лось бы, так как это искус­ствен­ный интел­лект, кото­рый не испы­ты­ва­ет эмо­ции, а про­сто ими­ти­ру­ет их, то и про­бле­мы нет.

Мож­но при­ве­сти ана­ло­гию с кук­лой. Если в ответ на голос хозя­и­на она начи­на­ет пла­кать или улы­бать­ся, мы пони­ма­ем, что это все­го лишь дви­же­ния меха­низ­ма. Име­ет ли смысл гово­рить о защи­те прав этой кук­лы?

Но есть дру­гой аспект – как чело­век отно­сит­ся к это­му робо­ту или искус­ствен­но­му суще­ству. Уже мини­мум 20 лет в пси­хо­ло­гии изу­ча­ют отно­ше­ние людей к искус­ствен­ным аген­там.

У нас лег­ко воз­ни­ка­ет эмпа­тия по отно­ше­нию к ним. При этом робо­ты совер­шен­но не обя­за­ны быть даже чело­ве­ко­по­доб­ны­ми. Неко­то­рые шутят с Али­сой или руга­ют­ся с нави­га­то­ром в авто­мо­би­ле. И вста­ет вопрос: что делать потом с эти­ми робо­та­ми, когда они выхо­дят из строя? Какие эти­че­ские про­бле­мы свя­за­ны с сами­ми робо­та­ми, а какие – с людь­ми, кото­рые вза­и­мо­дей­ству­ют с робо­та­ми? Если чело­век ведет себя жесто­ко по отно­ше­нию к робо­ту: лома­ет, бьет его, как к это­му отно­сить­ся? 

Если ребе­нок про­яв­ля­ет жесто­кость по отно­ше­нию к кук­ле или взрос­лый по отно­ше­нию к робо­ту, то, воз­мож­но, у них есть пси­хо­ло­ги­че­ские про­бле­мы, кото­рые потом будут пере­но­сить­ся на живых людей. 

И еще: допу­стим, чело­век жесто­ко отно­сит­ся к живот­ным и полу­ча­ет нака­за­ние. Это санк­ция за то, что он доста­вил стра­да­ния живо­му суще­ству или за нару­ше­ние общих пра­вил пове­де­ния?

– Можем обратиться к Уголовному кодексу: жестокое обращение с животными в целях причинения ему боли наказывается штрафом в размере до восьмидесяти тысяч рублей. То же деяние, совершенное с публичной демонстрацией, уже влечет штраф в размере от ста тысяч до трехсот тысяч рублей. Получается, общество наказывает не только за страдания существа, но и за пропаганду насилия.

– Это инте­рес­ный аспект. Таким обра­зом, воз­мож­но, в буду­щем будут нака­зы­вать за жесто­кое обра­ще­ние с робо­та­ми не пото­му что тем боль­но или обид­но, а пото­му что это нару­ша­ет какие-то пред­став­ле­ния о чело­ве­че­ском пове­де­нии.

Но пра­виль­но ли это? Вооб­ще, суще­ству­ет эти­че­ская мак­си­ма (пра­ви­ло пове­де­ния, кото­рое мож­но при­нять как хоро­шее руко­вод­ство к дей­ствию. – Прим. ред.): чело­век име­ет пра­во делать все до тех пор, пока это не нано­сит вре­да дру­гим. И если чело­век, допу­стим, не изде­ва­ет­ся над кош­кой, а лишь дела­ет вид – он несет за это ответ­ствен­ность?

– Вероятно, будет расценено как пропаганда насилия, провокация…

– Есть такое ощу­ще­ние, что это что-то, что на самом деле неко­то­рым людям хоте­лось бы делать, но нрав­ствен­ные и обще­ствен­ные нор­мы не поз­во­ля­ют. И тогда, види­мо, если будут санк­ции за жесто­кое обра­ще­ние с робо­та­ми, то суть будет не в том, что робо­там боль­но. А в том, что если мож­но по отно­ше­нию к робо­там себя так вести, то, воз­мож­но, люди потом будут вести себя так же пло­хо по отно­ше­нию к живым суще­ствам.

Одна­ко эта логи­ка небез­упреч­ная. Может быть, выме­щая свою агрес­сию на робо­тах, чело­век потом не будет сры­вать­ся на дру­гих людях. В любом слу­чае мы не можем отдать на откуп робо­ту реше­ние эти­че­ских вопро­сов, с ними нам при­дет­ся раз­би­рать­ся само­сто­я­тель­но.

Еще по теме