06.08.20 13:28

Новости

Автор:

Администратор

Как предотвратить опасности искусственного интеллекта с помощью этики искусственного интеллекта

 Волнения общественности по поводу опасностей искусственного интеллекта вполне обоснованны. Внешний совет по этике искусственного интеллекта может помочь внедрить представление, прозрачность и...

Волнения общественности по поводу опасностей искусственного интеллекта вполне обоснованны. Внешний совет по этике искусственного интеллекта может помочь внедрить представление, прозрачность и подотчетность в решения по разработке ИИ.


Автор: Бен Херцберг

 

После массовых протестов против расизма в США технологические гиганты Microsoft, Amazon и IBM публично объявили, что больше не будут предоставлять полицейским департаментам доступ к своей технологии распознавания лиц. Искусственный интеллект может быть подвержен ошибкам, особенно при распознавании людей с различным цветом кожи и из других малочисленных этнических групп.

 

Такие этические проблемы не заканчиваются на программном обеспечении распознавания лиц. Любая организация, разрабатывающая или использующая решения искусственного интеллекта, должна проявлять инициативу, чтобы гарантировать, что опасности искусственного интеллекта не поставят под угрозу их бренд, не повлекут за собой нормативные меры и не приведут к бойкотам или уничтожению ценности бизнеса.

 

Создайте внешнюю комиссию по этике искусственного интеллекта, чтобы предотвратить, а не просто смягчить опасности 

 

Многие цитировали президента Microsoft Брэда Смита, заявившего, что его компания не будет продавать технологию распознавания лиц полицейским департаментам в США, «пока у нас не будет Национального закона, основанного на правах человека, который будет регулировать эту технологию».

 

Итак, что организации могут сделать сами, в отсутствие строгой организованной защиты от опасностей искусственного интеллекта?

 

В конце концов, искусственный интеллект может привести к любым негативным последствиям, от ликвидации стабильной, хорошо оплачиваемой работы до определения тюремных сроков и медицинских пособий с помощью необъяснимых алгоритмов. Все, что полностью автоматизировано, может злоупотреблять и подвергать насилию.

 

Первый и, возможно, самый важный шаг, чтобы предотвратить это – создать внешний совет по этике ИИ, чтобы именно предотвратить, а не просто смягчить возможные опасности искусственного интеллекта.

 

Защита сверх того, что существует

 

Пандемия COVID-19 вызвала особую озабоченность по поводу того, как применять этику данных к процессам принятия решений при сборе, использовании и обмене информацией о сотрудниках и здоровье отдельных лиц. Но теперь каждая организация должна остерегаться опасностей искусственного интеллекта, если она надеется использовать многочисленные возможности, которые он предлагает бизнесу.

 

Возможные и реальные опасности чаще всего возникают из-за способности ИИ принимать решения и действовать практически без вмешательства человека. Часто оглашаются риски, которые ИИ представляет для частной жизни, работы и отношений.

 

Хотя действительно существуют общественные механизмы для смягчения опасностей искусственного интеллекта, их недостаточно. Рыночные силы побуждают компании разрабатывать искусственный интеллект для удовлетворения, например, государственных потребностей в распознавании лиц и наблюдении за ними, но при этом не происходит соответствующего повышения их этического использования.

 

Регулирующие органы часто не готовы или недостаточно осведомлены об искусственном интеллекте, чтобы обеспечивать надлежащий контроль. Суды, ориентированные на то, чтобы избежать судебных решений, которые трудно впоследствии изменить, как правило, более строги, чем это необходимо для обеспечения общественного благополучия.

 

Поэтому неудивительно, что разработчики ИИ-решений обеспокоены тем, что искусственный интеллект будет искажен во время внедрения или неправильно использован на рынке. Опасения Microsoft по поводу использования технологии распознавания лиц, безусловно, оправданны, учитывая, что передовые технологии, хотя и предназначены для защиты сообществ, могут также негативно повлиять на те же самые сообщества.

 

И это бремя может легко свалиться на цветных людей, представителей ЛГБТ-сообщества и других лиц, которые и так недостаточно представлены во многих учреждениях, разрабатывающих и обеспечивающих надзор за такими технологиями.

 

Создание внешнего совета по этике искусственного интеллекта  

 

Компания Axon, поставщик технологических решений для правоохранительных органов, создала внешний совет по этике, чтобы помочь устранить недостатки механизмов, предназначенных для защиты общественности. В частности, компания создала Совет, который обеспечил большую прозрачность, подотчетность и понимание в процессе разработки ИИ. Вот какие уроки можно извлечь из их опыта. 

 

Представление

 

Ваши основные клиенты – это покупатели вашей продукции, но кто они такие? В случае с полицейскими технологиями заказчиками могут быть правоохранительные органы, но потребителями являются сообщества, которые они обслуживают, и на них напрямую влияет использование этих технологий.

 

Убедитесь, что вы и ваши сотрудники понимаете ваших потребителей и можете дать представление о потенциальном влиянии ваших технологий искусственного интеллекта. Это помогает отфильтровать плохие предложения продуктов искусственного интеллекта, прежде чем они выйдут на рынок.

 

Прозрачность

 

Будьте полностью откровенны с вашим советом по этике ИИ в отношении каждого проекта и планов. Неосведомленный совет бесполезен. Убедитесь, что члены вашей комиссии владеют всеми деталями, необходимыми для того, чтобы уверенно давать рекомендации по разработке проектов. Такая прозрачность и доверие помогут вам приобрести и сохранить достойных членов совета.

 

Подотчетность

 

После того, как комиссия вынесет свои рекомендации, высшие руководители должны ответить на них публично. Это свидетельствует о том, что организация привержена делу и подотчетна.

 

Расширение прав и возможностей совета по этике ИИ

 

Компания Axon также предприняла отдельные шаги по расширению полномочий совета по этике ИИ и его членов. 

 

Выбрать эффективных участников. 

Помимо чрезмерного представительства тех, на кого повлияют ваши технологии искусственного интеллекта, убедитесь, что совет действительно независим. Для этого привлеките само правление к отбору будущих членов и убедитесь, что в состав правления не входят сотрудники вашей организации. Сделайте совет достаточно разнообразным и квалифицированным, чтобы оспаривать бизнес-решения. Возможные участники должны включать в себя не только экспертов в области искусственного интеллекта и машинного обучения, но и регулирующие органы, ученых и практиков в вашем бизнес-сегменте.

 

Обеспечить актуальную и прозрачную обратную связь. 

Используйте три основных правила для гарантии эффективности работы совета:

1) обеспечьте полный доступ к информации (например, о логике алгоритмов);

2) позвольте совету контролировать свою собственную повестку дня; 

3) не вмешивайтесь в рекомендации совета. 

 

Совет по этике Axon публикует свои рекомендации на совершенно отдельном веб-сайте, поддерживаемом университетом, а не компанией.

 

Организовать подотчетность. 

Предоставьте вашей команде разработчиков искусственного интеллекта неограниченный доступ к совету по этике, внутреннему омбудсмену и омбудсмену совета. Это обеспечит доверие между всеми сторонами и участниками и создаст механизмы для решения любых возникающих этических проблем (включая жалобы осведомителей).

 

Эффективный внешний совет по этике искусственного интеллекта внедряет в культуру организации методы развития ИИ, которые стимулируют конкурентные преимущества и устойчивость бизнеса и делают организацию более привлекательной для талантов.

 

Ссылка на источник