23.05.2024 00:13

Новости

Администратор

Автор:

Администратор

Пять главных причин почему ChatGPT не нужен предприятиям

При всем ажиотаже вокруг ChatGPT, почему так много компаний, включая Apple, Amazon, Verizon, JP Morgan Chase, Deutsche Bank, Northrup Grumman, Samsung и Accenture, запретили его использование? Это нежелание в первую очередь связано с опасениями по поводу развертывания внешних больших языковых моделей (LLM), таких как ChatGPT, что может привести к передаче и хранению конфиденциальных данных за пределами защищенной среды предприятия. Эффективность генерирующего ИИ на предприятии зависит от способности успешно обучать большую языковую модель (LLM) на собственных данных компании, охватывающих все, от электронных писем до финансовых отчетов. Это специализированное обучение гарантирует, что разговоры с ИИ будут более точными и актуальными. Однако частный характер корпоративных данных и необходимость строгого соблюдения принципов конфиденциальности данных, управления ими и соблюдения нормативных требований создают серьезные проблемы. Неправильное управление может привести к дорогостоящим последствиям, таким как утечка данных и ущерб бренду.


Пятью основными причинами, указывающими на неготовность ChatGPT к корпоративному использованию, являются:

Точность. Для достижения точных результатов крайне важно правильно настроить модели искусственного интеллекта с учетом специфики бизнеса. Однако в настоящее время OpenAI не предоставляет возможности напрямую обучать пользователей ChatGPT с использованием таких данных. Пользователи должны разработать свои собственные пары быстрого завершения и обучить их работе с изолированной моделью GPT-3.5, которая не используется совместно с другими клиентами и не используется для обучения других моделей. Данные для точной настройки должны быть надлежащим образом классифицированы, подготовлены, помечены и потенциально обезличены, если они являются конфиденциальными, - и все это перед употреблением. Данные, загруженные для точной настройки, хранятся в OpenAI неопределенный срок, пока клиент не удалит файлы.

 

Прозрачность. В области искусственного интеллекта, как правило, соблюдаются высокие стандарты открытости для обучения и совершенствования. Тем не менее, с выпуском GPT-4 OpenAI решила сделать свой исходный код закрытым и не раскрывать технические детали для экспертной оценки. Такое отсутствие прозрачности мешает исследователям и специалистам по обработке данных проверять и валидировать результаты, создавая проблему для предприятий, которым требуется полная прозрачность и доступ к открытым исходным кодам для тщательной оценки.

 

Конфиденциальность. ChatGPT обеспечивает конфиденциальность потребительских данных посредством Соглашения о конфиденциальности данных (DPA) для удовлетворения запросов GDPR. Однако DPA не в полной мере охватывает более сложные требования к конфиденциальности данных, необходимые для ключевых отраслевых нормативных актов, таких как PHI/HIPAA для здравоохранения, PCI/DSS для обработки кредитных карт или SEC и FINRA для финансовых услуг. Исключение производных данных из сферы защиты DPA, несмотря на определенные нормативные акты, такие как FINRA, запрещающие определенные формы обработки производных данных, вызывает дополнительные опасения.

 

Безопасность. OpenAI и ее облачные партнеры поддерживают высокие стандарты безопасности, но приватный характер ChatGPT и его использование данных вызывают опасения по поводу утечки данных и эксфильтрации. Функции безопасности корпоративного уровня, такие как детализированный контроль доступа на основе ролей и проактивные решения для управления правами, не предоставляются. Отсутствие сквозного шифрования на платформе OpenAI означает, что данные и разговоры могут быть доступны сотрудникам OpenAI. При этом решения для обфускации данных, такие как маскировка данных или средства обнаружения конфиденциальных данных, которые могли бы помочь в защите данных, отсутствуют.

 

Управление данными. Эффективное управление корпоративными данными требует соблюдения широкого спектра отраслевых и государственных нормативных актов. Помимо управления жизненным циклом информации (ILM) и соответствия требованиям SOC 2, корпоративные данные должны соответствовать таким стандартам, как PHI/HIPAA, PCI-DSS, SEC, FINRA, FDA и FISMA. Меняющийся ландшафт нормативных актов, касающихся искусственного интеллекта, таких как Закон ЕС об искусственном интеллекте от 2021 года и Билль о правах в области искусственного интеллекта в США, усложняет ситуацию.

 

В свете этих проблем компании внедряют новые инфраструктурные решения для удовлетворения потребностей приложений с генеративным ИИ, основанных на данных. Чтобы снизить риск раскрытия корпоративных данных, необходимо принять строгие меры по защите данных, гарантирующие достижение целей конфиденциальности и безопасности потребительских данных при одновременном использовании преимуществ технологии искусственного интеллекта.

 

Компаниям из различных отраслей, возможно, придется рассмотреть возможность создания собственных частных LLM для соблюдения нормативных требований. Облачные платформы управления данными, поддерживающие машинное обучение и расширенную подготовку данных для безопасного обучения моделей, приобретают все большее значение. Отслеживание рабочих процессов, экспериментов, развертываний и связанных с ними артефактов на этих платформах позволяет создавать централизованный реестр моделей для операций машинного обучения (MLOps) и обеспечивает контрольные журналы, воспроизводимость и средства контроля, необходимые для осуществления надзора со стороны регулирующих органов.

 

Структуры данных искусственного интеллекта требуют полного набора возможностей для разработки данных, включая комплексную защиту, конфиденциальность данных, обработку в режиме реального времени, управление данными, управление метаданными, подготовку данных и машинное обучение. Независимо от того, используются ли частные LLM или общедоступные модели, такие как ChatGPT, централизованные MLOps обеспечивают инженерам по обработке данных контроль над всем жизненным циклом машинного обучения.

 

Несмотря на то, что ChatGPT оказал значительное влияние, его успешная интеграция на предприятии зависит от успешного управления данными и процессов разработки данных. Как отметил представитель Deutsche Bank Сен Шанмугасивам, банк, несмотря на свой запрет, активно изучает, как использовать инструменты генеративного ИИ “безопасным и совместимым образом”. Интерес к генеративному ИИ и машинному обучению на предприятии растет, но для работы на предприятии потребуются стандарты управления данными и гарантии для обеспечения безопасности. обеспечьте надежное будущее корпоративному ИИ.

 

Автор статьи на сайте Datanami –  Джон Оттман, автор книги “Сохраним базу данных, спасем мир!”


0


Нет комментариев. Ваш будет первым!
Загрузка...