Почему искусственный интеллект предвзят?

Термин AI bias можно перевести как «необъективность ИИ» или «пристрастность ИИ». Изображение: pixabay.com.
Тер­мин AI bias мож­но пере­ве­сти как «необъ­ек­тив­ность ИИ» или «при­страст­ность ИИ». Изоб­ра­же­ние: pixabay.com.

Что такое «пред­взя­тость искус­ствен­но­го интел­лек­та» (AI bias)? С чем свя­за­но воз­ник­но­ве­ние это­го явле­ния, и как с ним бороть­ся? На эти вопро­сы попы­та­лись отве­тить экс­пер­ты науч­но-попу­ляр­но­го жур­на­ла Harvard Business Review.

Тер­мин AI bias мож­но пере­ве­сти как «необъ­ек­тив­ность ИИ» или «при­страст­ность ИИ». При­чи­на столь высо­ко­го инте­ре­са к AI bias объ­яс­ня­ет­ся тем, что резуль­та­ты внед­ре­ния тех­но­ло­гий ИИ в ряде слу­ча­ев заде­ва­ют основ­ные цен­но­сти совре­мен­но­го обще­ства. Они про­яв­ля­ют­ся в нару­ше­нии таких важ­ных прин­ци­пов, как расо­вое и ген­дер­ное равен­ства. IT-спе­ци­а­ли­сты реко­мен­ду­ют про­ве­рять дан­ные, посту­па­ю­щие в систе­мы ИИ, что­бы они не содер­жа­ли «исто­ри­че­ско­го предубеж­де­ния про­тив опре­де­лен­ных групп».

В ста­тье «Вот поче­му воз­ни­ка­ют ИИ-при­вя­зан­но­сти и поче­му с ними слож­но бороть­ся» выде­ля­ют­ся три момен­та, спо­соб­ству­ю­щие воз­ник­но­ве­нию AI bias.

  • Поста­нов­ка зада­чи (Framing the problem). Про­бле­ма состо­ит в том, что мето­да­ми машин­но­го обу­че­ния обыч­но хочет­ся опе­ре­дить нечто, не име­ю­щее стро­го­го опре­де­ле­ния. Ска­жем, банк хочет опре­де­лить кре­дит­ные каче­ства заем­щи­ка, но это весь­ма раз­мы­тое поня­тие и резуль­тат рабо­ты моде­ли будет зави­сеть от того, как раз­ра­бот­чи­ки, в силу сво­их лич­ных пред­став­ле­ний, смо­гут это каче­ство фор­ма­ли­зо­вать.
  • Сбор дан­ных для обу­че­ния (Collecting the data). На дан­ном эта­пе может быть два источ­ни­ка пред­взя­то­сти: дан­ные могут быть не репре­зен­та­тив­ны или же могут содер­жать пред­рас­суд­ки. Извест­ный пре­це­дент, когда систе­ма луч­ше раз­ли­ча­ла свет­ло­ко­жих по срав­не­нию с тем­но­ко­жи­ми, был свя­зан с тем, что в исход­ных дан­ных свет­ло­ко­жих было боль­ше. А не менее извест­ная ошиб­ка в авто­ма­ти­зи­ро­ван­ных рекру­тин­го­вых служ­бах, кото­рые отда­ва­ли пред­по­чте­ния муж­ской поло­вине, была свя­за­ны с тем, что они были обу­че­ны на дан­ных, стра­да­ю­щих муж­ским шови­низ­мом.
  • Под­го­тов­ка дан­ных (Preparing the data). Когни­тив­ная пред­взя­тость может про­со­чить­ся при выбо­ре тех атри­бу­тов, кото­рые алго­ритм будет исполь­зо­вать при оцен­ке заем­щи­ка или кан­ди­да­та на рабо­ту. Никто не может дать гаран­тии объ­ек­тив­но­сти избран­но­го набо­ра атри­бу­тов.

Систе­мы машин­но­го обу­че­ния игно­ри­ру­ют пока­за­те­ли, кото­рые не могут точ­но пред­ска­зать резуль­тат (сре­ди дан­ных, пред­ло­жен­ных для обу­че­ния). А зна­чит, необ­хо­ди­ма допол­ни­тель­ная про­вер­ка алго­рит­мов. Она долж­на най­ти ошиб­ки, зало­жен­ные чело­ве­ком, те, что оста­лись неза­ме­чен­ны­ми или непро­ве­рен­ны­ми.

Алго­ритм обыч­но пред­ска­зы­ва­ет буду­щее точ­но, но не гово­рит, ни чем будет вызва­но собы­тие, ни поче­му. Алго­ритм может про­чи­тать все ста­тьи New York Times и ска­зать, что из них будут обсуж­дать в «Твит­те­ре», но не объ­яс­нит жела­ние людей поде­лить­ся этой инфор­ма­ци­ей. Алго­ритм может пока­зать, какие сотруд­ни­ки, ско­рее все­го, мно­го­го добьют­ся, но не сооб­щит вам, в силу каких сво­их качеств. Понять эти два недо­стат­ка алго­рит­мов — зна­чит, сде­лать пер­вый шаг к тому, что­бы луч­ше ими управ­лять. 

Глав­ное, что мы долж­ны сде­лать, – это уско­рить про­гресс, кото­рый наблю­да­ет­ся в рабо­те над ошиб­ка­ми в искус­ствен­ном интел­лек­те. Один из наи­бо­лее слож­ных шагов в этом направ­ле­нии – пони­ма­ние и оцен­ка «досто­вер­но­сти». Иссле­до­ва­те­ли раз­ра­бо­та­ли тех­ни­че­ские спо­со­бы опре­де­ле­ния досто­вер­но­сти.

Напри­мер, тре­бо­ва­ние, что­бы моде­ли име­ли рав­ную про­гно­сти­че­скую цен­ность сре­ди групп, или тре­бо­ва­ние, что­бы моде­ли име­ли оди­на­ко­вое чис­ло лож­но­по­ло­жи­тель­ных и отри­ца­тель­ных рас­по­зна­ва­ний сре­ди групп. Одна­ко это при­во­дит к слож­ной зада­че – раз­лич­ные тре­бо­ва­ния по досто­вер­но­сти обыч­но не могут быть удо­вле­тво­ре­ны одно­вре­мен­но.

«Достоверность противоречий» и другие решения проблемы AI bias

Реше­ни­ем про­бле­мы AI bias, по мне­нию экс­пер­тов Harvard Business Review, может слу­жить забла­го­вре­мен­ная обра­бот­ка и ана­лиз дан­ных или внед­ре­ние зна­че­ний досто­вер­но­сти непо­сред­ствен­но в про­цесс обу­че­ния систе­мы. Одной из пер­спек­тив­ных тех­но­ло­гий явля­ет­ся «досто­вер­ность про­ти­во­ре­чий», в рам­ках кото­рой про­ве­ря­ет­ся, что реше­ния, при­ни­ма­е­мые алго­рит­ма­ми, будут оста­вать­ся неиз­мен­ны­ми в про­ти­во­по­лож­ной плос­ко­сти, где изме­не­ны такие важ­ные пере­мен­ные, как раса, пол и сек­су­аль­ная ори­ен­та­ция.

Еще по теме: Эти­ка и мате­ма­ти­ка: зачем коди­ро­вать мораль

Силь­вия Кьяп­па из ком­па­нии DeepMind раз­ра­бо­та­ла осо­бен­ный под­ход к «досто­вер­но­сти про­ти­во­ре­чий». Он поз­во­ля­ет решать слож­ные зада­чи, когда неко­то­рые вет­ви алго­рит­ма, в кото­рых зна­чи­мые пере­мен­ные вли­я­ют на резуль­тат, счи­та­ют­ся досто­вер­ны­ми, тогда как дру­гие фак­то­ры вли­я­ния при­зна­ют­ся фик­тив­ны­ми.

Напри­мер, эта модель может помочь убе­дить­ся в том, что зачис­ле­ние аби­ту­ри­ен­та на тот или иной факуль­тет не зави­се­ло от его пола, при этом сохра­нив вли­я­ние поло­во­го при­зна­ка на общее зачис­ле­ние сту­ден­тов в уни­вер­си­тет (допу­стим, аби­ту­ри­ент­ки пода­ют заяв­ки на факуль­те­ты с более высо­ким кон­кур­сом).

Но дру­гие зада­чи тре­бу­ют чего-то боль­ше­го, чем про­сто тех­ни­че­ское реше­ние. Напри­мер, как опре­де­лить, что систе­ма дает доста­точ­но досто­вер­ные резуль­та­ты и гото­ва к исполь­зо­ва­нию? И в каких слу­ча­ях вооб­ще сле­ду­ет раз­ре­шать авто­ма­ти­зи­ро­ван­ное при­ня­тие реше­ний? Такие вопро­сы тре­бу­ют мно­го­про­филь­но­го под­хо­да, в том чис­ле спе­ци­а­ли­стов по эти­ке, спе­ци­а­ли­стов в обла­сти обще­ствен­ных наук и гума­ни­тар­ных дис­ци­пли­нах.

Как бороть­ся с погреш­но­стя­ми искус­ствен­но­го интел­лек­та

  • Лиде­ры биз­не­са и обще­ства долж­ны быть в кур­се трен­дов ИИ, посколь­ку мно­гие орга­ни­за­ции могут дать источ­ни­ки допол­ни­тель­ной инфор­ма­ции, напри­мер, годо­вые отче­ты, дан­ные неком­мер­че­ско­го сек­то­ра.
  • Внед­ряя искус­ствен­ный интел­лект, нуж­но ста­рать­ся мини­ми­зи­ро­вать систе­ма­ти­че­ские ошиб­ки. Напри­мер, исполь­зуя уже име­ю­щий­ся набор тех­ни­че­ских средств и мето­дик. Так, под­раз­де­ле­ние Google AI опуб­ли­ко­ва­ло спи­сок реко­мен­ду­е­мых прак­тик, а ком­па­ния IBM в сво­ем фрейм­вор­ке «Fairness 360» собра­ла наи­бо­лее рас­про­стра­нен­ные инстру­мен­ты.
  • Долж­на вестись парал­лель­ная рабо­та алго­рит­мов и чело­ве­ка. Важ­но отме­тить, что когда мы дей­стви­тель­но нашли ошиб­ку, недо­ста­точ­но про­сто изме­нить алго­ритм. Необ­хо­ди­мо улуч­шать про­цес­сы дея­тель­но­сти чело­ве­ка, кото­рые лежат в осно­ве этих алго­рит­мов.
  • Нуж­но понять, каким обра­зом люди и маши­ны могут рабо­тать сооб­ща для выяв­ле­ния оши­бок. Пони­ма­ние сте­пе­ни уве­рен­но­сти, с кото­рой алго­рит­мы дают реко­мен­да­ции, поз­во­лит опре­де­лить, какую сво­бо­ду при­ня­тия реше­ний им сле­ду­ет давать.
  • Не менее чем мно­го­про­филь­ный под­ход в иссле­до­ва­нии систе­ма­ти­че­ских оши­бок, важ­на кон­фи­ден­ци­аль­ность дан­ных. Эти­че­ская состав­ля­ю­щая будет спо­соб­ство­вать ком­му­ни­ка­ции меж­ду чело­ве­ком и умны­ми маши­на­ми.
  • Вовле­че­ние заин­те­ре­со­ван­ных сооб­ществ сде­ла­ет раз­ви­тие ИИ все­сто­рон­ним и эффек­тив­ным. По тако­му прин­ци­пу рабо­та­ет AI4ALL – неком­мер­че­ская орга­ни­за­ция, кото­рая путем обу­че­ния и мен­тор­ства гото­вит мно­го­про­филь­ных спе­ци­а­ли­стов в обла­сти искус­ствен­но­го интел­лек­та в недо­ста­точ­но пред­став­лен­ных соци­аль­ных груп­пах.

У искус­ствен­но­го интел­лек­та мно­го пер­спек­тив – как в соци­аль­ной сфе­ре, так и в биз­не­се. Но их полу­чит­ся реа­ли­зо­вать, толь­ко если люди будут дове­рять алго­рит­мам. 

Еще по теме