Facebook займется мониторингом постов о самоубийстве

Сотрудники компании сами общаются с пользователями, однако в будущем возможно привлечение специалистов. Фото: Flickr Metropolico.org (CC BY-SA 2.0).
Сотрудники компании сами общаются с пользователями, однако в будущем возможно привлечение специалистов. Фото: Flickr Metropolico.org (CC BY-SA 2.0).

Ком­па­ния Facebook нача­ла исполь­зо­вать искус­ствен­ный интел­лект для того, что­бы опре­де­лять поль­зо­ва­те­лей, склон­ных к само­убий­ству. Ком­па­ния раз­ра­бо­та­ла алго­ритм, кото­рый опре­де­ля­ет содер­жа­ние постов поль­зо­ва­те­лей и ком­мен­та­ри­ев, кото­рые остав­ля­ют их дру­зья.

Если в кон­тен­те содер­жат­ся при­зна­ки того, что речь может идти о само­убий­стве, инфор­ма­ция попа­да­ет к сотруд­ни­кам ком­па­нии. Те ана­ли­зи­ру­ют ото­бран­ный мате­ри­ал, и если при­зна­ют, что риск дей­стви­тель­но есть, то выхо­дят с поль­зо­ва­те­лем на связь, что­бы пред­ло­жить ему помощь. В дан­ный момент эта функ­ция тести­ру­ет­ся в США.

Еще по теме: Community Help поз­во­лит поль­зо­ва­те­лям Facebook про­сить и полу­чать помощь в чрез­вы­чай­ных ситу­а­ци­ях

Facebook уже име­ет опыт обще­ния с поль­зо­ва­те­ля­ми, нахо­дя­щи­ми­ся в груп­пе рис­ка, одна­ко рань­ше сотруд­ни­ки ком­па­нии выхо­ди­ли на связь после того, как о тре­вож­ных при­зна­ках в постах сооб­ща­ли их дру­зья (исполь­зуя кноп­ку Report).

Сле­ду­ю­щим шагом для соци­аль­ной сети может стать сотруд­ни­че­ство со спе­ци­а­ли­зи­ро­ван­ны­ми орга­ни­за­ци­я­ми, кото­рые зани­ма­ют­ся рабо­той с людь­ми, склон­ны­ми к суи­ци­ду. Пред­ста­ви­те­ли спе­ци­аль­ных служб помо­щи и обще­ствен­ных орга­ни­за­ций могут под­клю­чать­ся к ока­за­нию под­держ­ки поль­зо­ва­те­лям.