22.09.21 15:21

Новости

Автор:

Администратор

Искусственный интеллект при найме на работу может принести больше вреда, чем пользы

 Инструменты искусственного интеллекта утверждают, что уменьшают предвзятость при приеме на работу за счет включения машинных решений, но, по крайней мере, на ранних этапах стратегии найма...

Инструменты искусственного интеллекта утверждают, что уменьшают предвзятость при приеме на работу за счет включения машинных решений, но, по крайней мере, на ранних этапах стратегии найма механизмы ИИ могут нанести ущерб DEI вашей организации.


Автор: Сара К. Уайт, старший автор CIO

 

В последние годы использование искусственного интеллекта в процессе найма возросло, поскольку компании обращаются к автоматизированным оценкам, цифровым собеседованиям и анализу данных для отбора кандидатов. Но поскольку ИТ-отделы стремятся к большему разнообразию, справедливости и инклюзивности (DEI), оказывается, что ИИ может принести больше вреда, чем пользы, если компании не будут стратегически и продуманно подходить к тому, как они внедряют технологию.

 

«Предвзятость обычно исходит из данных. Если у вас нет репрезентативного набора данных или какого-то количества характеристик, которые вы выбираете, то, конечно, вы не будете должным образом находить и оценивать кандидатов», - говорит Елена Ковачевич, сотрудник IEEE и декан инженерной школы Тандон Нью-Йоркского университета.

 

Главная проблема использования ИИ при приеме на работу заключается в том, что в отрасли, в которой на протяжении десятилетий преобладали мужчины и белые, исторические данные, на основе которых строятся системы найма ИИ, в конечном счете будут иметь врожденную предвзятость. Без разнообразных наборов исторических данных для обучения алгоритмов искусственного интеллекта инструменты найма, скорее всего, будут иметь те же предубеждения, которые существовали при найме технических специалистов с 1980-х годов. Тем не менее, при эффективном использовании ИИ может помочь создать более эффективный и справедливый процесс найма, считают эксперты.

 

Опасности предвзятости в ИИ

 

Поскольку алгоритмы искусственного интеллекта обычно обучаются на прошлых данных, предвзятость всегда вызывает беспокойство. В науке о данных предвзятость определяется как ошибка, возникающая из-за ошибочных допущений в алгоритме обучения. Обучите свои алгоритмы с помощью данных, которые не отражают текущую ситуацию, и вы получите ошибочные результаты. Таким образом, при найме, особенно в такой отрасли, как ИТ, у которой были исторические проблемы с разнообразием, обучение алгоритму на основе исторических данных о найме может быть большой ошибкой.

 

«Действительно трудно гарантировать, что часть программного обеспечения ИИ не является по своей сути предвзятой или не оказывает предвзятого воздействия», - говорит Бен Уинтерс, специалист по ИИ и правам человека в Информационном центре электронной конфиденциальности. Хотя можно предпринять шаги, чтобы избежать этого, добавляет он, «было доказано, что многие системы оказывают предвзятое воздействие в зависимости от расы и инвалидности».

 

Если у вас нет заметного разнообразия в вашем наборе данных, то алгоритм не сможет узнать, как люди из недостаточно представленных групп действовали бы в прошлом. Вместо этого ваш алгоритм будет ориентирован на то, что представляет ваш набор данных, и будет сравнивать всех будущих кандидатов с этим архетипом, говорит Ковачевич.

 

«Например, если чернокожие люди систематически исключались из прошлого, и если в прошлом у вас не было женщин на производстве, и вы создадите алгоритм, основанный на этом, то будущее невозможно правильно спрогнозировать. Если вы нанимаете только из «школ Лиги плюща», то вы действительно не знаете, как будет работать кандидат из менее известной школы, поэтому существует несколько уровней предвзятости», - говорит она.

 

Венди Рентшлер, руководитель отдела корпоративной социальной ответственности, разнообразия, справедливости и инклюзивности в BMC Software, прекрасно осознает потенциальные негативные последствия, которые ИИ может привнести в процесс найма. В качестве яркого примера она указывает на печально известный случай попытки Amazon разработать инструмент рекрутинга на основе искусственного интеллекта: компании пришлось закрыть проект, потому что алгоритм дискриминировал женщин.

 

«Если крупнейшая и величайшая компания по разработке программного обеспечения не может этого сделать, я даю большую паузу всем специалистам по персоналу и их заявлениям о том, что они могут это сделать», - говорит Рентшлер.

 

Некоторые компании, занимающиеся разработкой программного обеспечения для ИИ, делают большие заявления, но сможет ли их программное обеспечение помочь определить подходящего кандидата, еще предстоит выяснить. Технология может помочь компаниям оптимизировать процесс найма и найти новые способы выявления квалифицированных кандидатов с помощью искусственного интеллекта, но важно не допустить, чтобы высокие требования затуманивали суждения.

 

Если вы пытаетесь улучшить DEI в своей организации, искусственный интеллект может показаться быстрым решением или волшебной пулей, но если вы не стратегически подходите к использованию ИИ в процессе найма, это может привести к обратным результатам. Главное – обеспечить, чтобы ваш процесс найма и используемые вами инструменты не исключали традиционно недопредставленные группы.

 

Дискриминация с помощью ИИ

 

Компании должны убедиться, что они используют ИИ в процессе найма как можно более этично и не становятся жертвами раздутых заявлений о том, что могут сделать эти инструменты. Мэтью Шерер, старший политический советник по вопросам конфиденциальности работников в Центре демократии и технологий, отмечает, что, поскольку отдел кадров не приносит дохода и обычно обозначается как расходы, руководители иногда стремятся внедрить технологии автоматизации, которые могут помочь сократить расходы. Однако это рвение может заставить компании упускать из виду потенциальные недостатки программного обеспечения, которое они используют. Шерер также отмечает, что многие заявления, сделанные компаниями-разработчиками программного обеспечения для ИИ, часто преувеличены, если не полностью ложны.

 

«Особенно инструменты, которые утверждают, что делают такие вещи, как анализ мимики людей, их тона голоса, всего, что измеряет аспекты личности», - говорит он.

 

В лучшем случае инструменты, которые утверждают, что измеряют тон голоса, выражения и другие аспекты личности кандидата, например, в видеоинтервью, «измеряют норму «культурного человека», что в конечном итоге может исключить кандидатов с ограниченными возможностями или любого кандидата, который не соответствует тому, что алгоритм определяет как типичного кандидата. Эти инструменты также могут поставить кандидатов с ограниченными возможностями в неудобное положение, когда им приходится решать, следует ли им сообщать о каких-либо нарушениях до начала собеседования. Кандидаты с ограниченными возможностями могут быть обеспокоены тем, что, если они не раскроют информацию, они не получат надлежащих условий, необходимых для автоматической оценки, но им может быть неудобно раскрывать информацию об инвалидности на ранней стадии процесса найма или в целом.

 

И, как указывает Рентшлер, чернокожие (BIPOC), женщины и кандидаты с ограниченными возможностями часто привыкли к практике «переключения кода» на собеседованиях, когда недопредставленные группы вносят определенные коррективы в то, как они говорят, выглядят или ведут себя, чтобы другим было комфортнее. В этом случае системы искусственного интеллекта могут уловить это и неправильно определить свое поведение как недостоверное или нечестное, отвергая потенциально сильных кандидатов.

 

Шерер говорит, что законы о дискриминации делятся на две категории: неодинаковое воздействие, которое является непреднамеренной дискриминацией; и неодинаковое обращение, которое является преднамеренной дискриминацией. Трудно разработать инструмент, который мог бы избежать неодинакового воздействия «без явного предпочтения кандидатов из определенных групп, что представляло бы собой неодинаковое отношение в соответствии с федеральным законом».

 

Правила найма на основе ИИ

 

Искусственный интеллект – относительно новая технология, которая оставляет мало возможностей для надзора, когда речь заходит о законодательстве, политике и законах, касающихся конфиденциальности и торговой практики. Уинтерс указывает на жалобу FTC 2019 года, поданную EPIC, в которой утверждалось, что HireVue использовала обманчивые методы ведения бизнеса, связанные с использованием технологии распознавания лиц в своем программном обеспечении для найма.

 

HireVue утверждала, что предлагает программное обеспечение, которое «отслеживает и анализирует речь и движения лиц кандидатов, чтобы иметь возможность анализировать физическую форму, эмоциональный интеллект, коммуникативные навыки, когнитивные способности, способность решать проблемы и многое другое». HireVue в конечном счете отказалась от своих заявлений о распознавании лиц и использовании технологии в своем программном обеспечении.

 

Но существует аналогичная технология, которая использует игры для того, чтобы «якобы измерить субъективные поведенческие характеристики и сопоставить их организационным требованиям» или которая использует ИИ для «поиска в Интернете общедоступной информации о заявлениях кандидата, а затем анализа ее на предмет потенциальных красных флажков или соответствия», говорит Уинтерсу.

 

Также существуют опасения по поводу объема данных, которые ИИ может собрать о кандидате при анализе его видеоинтервью, оценок, резюме, профилей LinkedIn или других общедоступных профилей в социальных сетях. Часто кандидаты могут даже не знать, что их анализируют инструменты искусственного интеллекта в процессе собеседования, и существует мало правил о том, как управляются эти данные.

 

«В целом, в настоящее время очень мало надзора за инструментами найма на базе ИИ. Было внесено несколько государственных или местных законопроектов. Однако во многих из этих законопроектов есть существенные лазейки, а именно: они не применяются к государственным учреждениям и предлагают существенные обходные пути. Будущее регулирования найма на работу с поддержкой ИИ должно потребовать значительной прозрачности, контроля за применением этих инструментов, строгих ограничений на сбор, использование и хранение данных, а также независимого тестирования третьей стороной», - говорит Уинтерс.

 

Ответственное использование ИИ при найме на работу

 

Рентшлер и ее команда в BMC Software сосредоточились на поиске способов использования ИИ, чтобы помочь сделать «человеческий капитал компании более стратегическим». Они внедрили инструменты, которые быстро отбирают кандидатов, используя оценки на основе навыков для той должности, на которую они претендуют, и которые мгновенно назначают собеседования для связи с рекрутером. BMC Software также использовала ИИ для выявления проблемных формулировок в своих должностных инструкциях, гарантируя, что они являются гендерно нейтральными и инклюзивными для каждого кандидата. Также компания использовала программное обеспечение, чтобы знакомить новых сотрудников с внутренней организационной информацией в процессе адаптации. Цель Рентшлер – найти способы внедрения искусственного интеллекта и автоматизации, которые могли бы помочь людям в ее команде выполнять свою работу более эффективно, а не заменять их.

 

Хотя алгоритмы искусственного интеллекта могут иметь врожденную предвзятость, основанную на исторических данных о найме, один из способов избежать этого – больше сосредоточиться на найме на основе навыков. Команда Рентшлер использует инструменты искусственного интеллекта только для выявления кандидатов, обладающих определенными навыками, которых они хотят добавить в свой штат, и игнорирует любые другие идентификаторы, такие как образование, пол, имена и другая потенциально идентифицирующая информация, которая исторически могла исключить кандидата из процесса. Сделав это, BMC наняла кандидатов с неожиданным прошлым, говорит Рентшлер, в том числе сирийского беженца, который изначально был стоматологом, но также имел некоторый опыт программирования. Поскольку система была ориентирована только на поиск кандидатов с навыками программирования, бывший стоматолог прошел фильтр и был принят на работу в компанию.

 

Другие этические стратегии включают в себя наличие контроля и равновесия. Шерер проконсультировался с компанией, которая разработала инструмент для отправки потенциальных кандидатов рекрутеру, который затем рассматривает их резюме и решает, подходят ли они для этой работы. Даже если этот рекрутер отклонит резюме, анкета кандидата все равно будет снова пропущена через алгоритм, и если кандидат будет помечен как потенциально хороший, то резюме будет отправлено другому рекрутеру, который не будет знать, что оно уже было рассмотрено кем-то другим в команде. Это гарантирует, что люди перепроверили резюме и что они не полагаются исключительно на ИИ для определения квалифицированных кандидатов. Это также гарантирует, что рекрутеры не упускают из виду квалифицированных кандидатов.

 

«Важно, чтобы человек сохранял здравый смысл и не полагался только на то, что говорит машина. И это то, чему трудно обучиться, потому что самое простое, что может сделать рекрутер-человек, - это всегда просто сказать: «Я собираюсь просто следовать тому, что говорит мне машина, если компания ожидает, что я буду использовать этот инструмент», - говорит Шерер.

 

Ссылка на источник