12.03.2024 00:39

Новости

Администратор

Автор:

Администратор

Эксперты призывают к созданию правовой "безопасной гавани" для тестирования ИИ

Согласно новой статье, опубликованной 23 исследователями искусственного интеллекта, академиками и креативщиками, правовая и техническая защита “безопасной гавани” необходима для того, чтобы позволить исследователям, журналистам и художникам проводить "добросовестную" оценку продуктов и услуг искусственного интеллекта. Несмотря на необходимость независимой оценки, говорится в документе, проведение исследований, связанных с этими уязвимостями, часто юридически запрещено условиями предоставления услуг для популярных моделей искусственного интеллекта, включая OpenAI, Google, Anthropic, Inflection, Meta и Midjourney. Авторы статьи призвали технологические компании возместить ущерб исследованиям в области искусственного интеллекта, представляющим общественный интерес, и защитить их от приостановки аккаунтов или юридических репрессий.


“Хотя эти условия предназначены для сдерживания злоумышленников, они также непреднамеренно ограничивают исследования в области безопасности и надежности искусственного интеллекта; компании запрещают исследования и могут применять свою политику путем приостановки действия учетных записей”, — говорится в сообщении в блоге, сопровождающем документ. Двое соавторов статьи, Шейн Лонгпре из MIT Media Lab и Саяш Капур из Принстонского университета, привели в качестве примера судебный иск к New York Times со стороны OpenAI с обвинением во “взломе”. Ведущий юрисконсульт Times ответил: “То, что OpenAI странным образом неверно характеризует как ”взлом", — это просто использование продуктов OpenAI для поиска доказательств того, что они украли и воспроизвели работы Times, защищенные авторским правом".

 

Лонгпре сказал, что идея "безопасной гавани" была впервые предложена Институтом исследования платформ социальных сетей Knight First Amendment в 2022 году. “Они попросили платформы социальных сетей не запрещать журналистам пытаться расследовать вред социальных сетей, а затем аналогичным образом обеспечить защиту исследователей”, - сказал он, указав, что была история, когда ученые и журналисты подвергались судебным искам или даже проводили время в тюрьме, поскольку они боролись за то, чтобы выявляйте слабые места в платформах. “Мы попытались извлечь как можно больше уроков из этой прошлой попытки предложить безопасную гавань для исследований в области искусственного интеллекта”, — сказал он. “С ИИ у нас, по сути, нет информации о том, как люди используют эти системы, какой вред наносится, и одним из единственных инструментов, которые у нас есть, является исследовательский доступ к этим платформам”.

 

Независимая оценка и Red Teaming являются ‘критическими’

В документе “Безопасная гавань для оценки ИИ и Red Teaming” говорится, что, насколько известно авторам, “приостановки учетных записей в ходе исследования общественных интересов” имели место в таких компаниях, как OpenAI, Anthropic, Inflection и Midjourney, причем "Midjourney является наиболее плодовитой". Они процитировали художника Рида Саутен, который указан в качестве одного из соавторов статьи и чья учетная запись Midjourney была заблокирована после публикации изображений Midjourney, которые казались почти идентичными оригинальным версиям, защищенным авторским правом. Его расследование показало, что Midjourney мог нарушать авторские права владельца без явного намерения пользователя с помощью простых подсказок. Red Teaming («красная команда») – команда пентестеров, ищущих уязвимости.

 

“Midjourney уже трижды забанил меня за личные расходы, приближающиеся к 300 долларам”, — сообщил Саутен сотруднику VentureBeat по электронной почте. “Первый бан произошел в течение 8 часов после моего расследования и публикации результатов, и вскоре после этого они обновили свои правила, не сообщив своим пользователям, чтобы переложить вину за любые изображения, нарушающие авторские права, на конечного пользователя”. Тип модели поведения, который он обнаружил, продолжил Саутен, “именно поэтому следует разрешить независимую оценку и объединение в красные команды, потому что [компании] показали, что они не будут делать это сами, в ущерб правообладателям во всем мире”.

 

Прозрачность - ключ к успеху

В конечном счете, сказал Лонгпре, проблемы, связанные с защитой safe harbor (безопасной гавани), связаны с прозрачностью. “Имеют ли независимые исследователи право, если они могут доказать, что они не совершают никаких злоупотреблений или причиняют вред, исследовать возможности и/или недостатки продукта?” он сказал. Но он добавил: в целом “мы хотим дать понять, что хотим работать с компаниями, которые будучи более прозрачными смогут использовать сообщество в своих интересах, чтобы помочь выявить недостатки моделей ИИ и улучшить их”.  

 

Капур добавил, что у компаний могут быть веские причины запретить некоторые виды использования своих услуг. Однако это не должна быть политика “одного размера для всех”, когда “условия предоставления услуг одинаковы независимо от того, являетесь ли вы злоумышленником или исследователем, проводящим критически важные для безопасности исследования”, — сказал он. Капур также сказал, что авторы статьи беседовали с некоторыми компаниями, условия использования которых являются предметом спора. “Большинство из них только что ознакомились с предложением, но наш подход заключался в том, чтобы начать этот диалог с компаниями”, — сказал он. “Пока что большинство людей, с которыми мы связались, были готовы начать этот разговор с нами. Хотя пока я не думаю, что у нас есть какие-либо твердые обязательства от каких-либо компаний по внедрению safe harbor”, — отметил он после того, как компания OpenAI ознакомилась с первым проектом документа и изменила формулировку в своих условиях предоставления услуг, чтобы учесть определенные типы безопасной гавани. “Таким образом, в какой-то степени это дало нам сигнал о том, что компании, возможно, действительно захотят пройти с нами часть пути”, — сказал он.

 

Статья Шароны Голдман опубликована на портале VentureBeat


0


Нет комментариев. Ваш будет первым!
Загрузка...