4 подхода к оценке с технологиями искусственного интеллекта

4 подхода к оценке с технологиями искусственного интеллекта

Термин "искусственный интеллект” (ИИ) сегодня применяется повсеместно. В одной только сфере оценки сотни компаний без устали твердят о возможностях ИИ, но что именно это означает? Насколько много в оценке действительно работы ИИ, а какой процент хайпа? Искусственный интеллект – это только часть механизма оценки, или уже сегодня все отдано на откуп роботам? Мне непросто ответить на эти вопросы, а ведь я всю свою сознательную жизнь проработал в этой отрасли.

Еще меньше осведомленности о технологиях ИИ среди широкой публики. В комментариях к любой статье об инструментах подбора, основанных на искусcтвенном интеллекте, творится хаос. Всеобщая путаница. Как-то раз я решился вклиниться в поток комментариев к одной из недавних статей о том, как применяется программное обеспечение с ИИ, и отметил несколько занятных комментариев:

«Как компания может быть уверена, что их алгоритм не выберет обаятельных социопатов? Их довольно часто отмечают, как потенциальных лидеров».

«Как система оценит человека с нарушениями речи? Или с нарушениями зрения? Что если, например, я болею, и из-за простуды голос осип? А если мой кот вдруг вклинится в интервью и вставит пару слов?»

Иными словами, сегодня еще слишком мало ответов на множество вопросов о сложном мире оценки при помощи искусственного интеллекта. Что же нам теперь, ждать, пока возникнет громкий судебный прецедент, чтобы дело сдвинулось с мертвой точки? Как широкая публика может принять и начать доверять инструментам оценки с ИИ, если профессионалы не могут разобраться, где границы дозволенного для этих технологий?

Думаю, пришло время найти некий общий знаменатель, и у меня есть, что предложить.
Это 4 подхода к инструментам оценки с технологиями ИИ.

№ 1 – Долой «черный ящик»!

ИИ понять непросто, это правда. В ходу слишком много жаргонных выражений и аббревиатур. Несмотря на то, что это сложно, мы не можем не требовать от создателей ИИ-оценки объяснений о том, как она работает.

Никто не должен создавать ИИ-оценку без понимания ее функций и способов подсчета результатов.

Все функции и переменные, используемые в ИИ-оценке, должны быть понятны и актуальны для тех целей, для которых создаются.

№ 2 - Нужна теоретическая база

Мы не можем позволить себе быть эмпириками. Теория – вот, что важно. Безусловно, возможности ИИ и машинного обучения позволяют оценить и распознать такое, что и не снилось традиционным аналитическим методикам. При этом нам нельзя осуществлять только сбор и анализ информации без фундамента теории. Корреляция - не причинно-следственная связь, поэтому хотя новые технологии и позволяют нам выстраивать прогнозные модели из массивов данных, считавшихся слишком громоздкими для анализа, такие модели могут привести нас к выводам, которые не пройдут проверку временем.

Например, сейчас вы можете взять все существенные данные вашей организации, вылить их в «интеллектуальный аналитический эфир» и в результате спрогнозировать что-то впечатляющее. Однако без теоретической основы высоки шансы, что вы ухватитесь за некий статистический артефакт в вашем массиве данных, а затем попытаетесь растянуть его на всю генеральную совокупность. Это все равно что предсказать при помощи такого «алгоритма без теории», что 37% сотрудников, которые относят себя к факультету «Пуффендуй*» с большей вероятностью сохранят рабочее место, чем те, которые относятся к другим факультетам Хогвартса. Но ведь это неправильно!

Все функции и переменные, применяемые ИИ при оценке, должны соответствовать цели их применения.

* Факультеты Хогвартса в книгах о Гарри Поттере — это четыре отделения школы чародейства и волшебства Хогвартс в которые учеников отбирают по складу характера. Они названы именами основателей Хогвартса, которые, собственно, и завели такой порядок отбора. Факультеты эти: Гриффиндор, Пуффендуй, Когтевран и Слизерин.

№ 3 – За ИИ нужно присматривать

Мы помним, что в большинстве случаев мы проводим оценку с помощью ИИ, опираясь на данные одной конкретной организации. Однако в мире не существует компании, которой удавалось бы принимать решения по персоналу полностью объективно. Если технологию ИИ внедрить в такие данные, есть шанс, что она превратит существующее отклонение в свое собственное программирование, и в результате уже имеющаяся необъективность может увеличиться.

Получается, что вместо человека, принимающего решения исходя из собственных предубеждений, так себя будет вести компьютер, а это неприемлемо. Над процедурой ИИ-оценки необходим контроль обученных, опытных, этичных специалистов, вовлекавшихся в создание такой процедуры оценки. Так, подготовленный профессионал сможет отслеживать функции и переменные, используемые ИИ, чтобы снизить риск дискриминации по расовому или половому признаку. Ведь если алгоритм не показал никакой предвзятости ИИ по расовому признаку в организации-создателе, это не значит, что у клиентов он поведет себя так же.

Все процедуры ИИ-оценки должны разрабатываться под неусыпным контролем опытных и этичных специалистов, настоящих профессионалов своего дела.
Мы несем моральную ответственность за то, чтобы дать кандидатам возможность показать себя с наилучшей стороны, не взирая ни на что.

№ 4 – Люди важнее ИИ

Как бы там ни было, а этическим вопросом адаптации новых технологий будут заниматься инженеры, организационные психологи, поведенческие экономисты и другие профессионалы. Нельзя забывать, что новые технологии оказывают большое влияние на жизни миллионов людей. С одной стороны монитора компьютера – специалисты, которые говорят о статистических вероятностях, связанных с улучшенными возможностями прогнозирования, но по другую сторону экрана находится кандидат – например, женщина, которой жизненно необходима работа, чтобы прокормить свою семью, – и наш моральный долг предоставить ей (и каждому кандидату) возможность показать себя с наилучшей стороны.


Мы должны дать возможность работодателям и соискателям пройти честную, непредвзятую, по-настоящему прогнозирующую оценку эффективности их работы.

Мир искусственного интеллекта волнует и сбивает с толку, однако пришла пора сделать оценку при помощи ИИ этичной: пора прийти к согласию в наших собственных культурных нормах и не забывать, что главное в разработке технологий оценки – это прочная научная база и человек.

Автор: Лэнс Эндрюс, руководитель направления Специализированных Решений в американском SHL.
Оригинальная версия статьи доступна на сайте .

Дополнительная информация

Нажимая на кнопку отправить, я соглашаюсь на обработку и хранение своих персональных данных *