25.05.2023 02:54

Новости

Администратор

Автор:

Администратор

Являются ли большие языковые модели неправильными?

Когда целью является точность, последовательность, овладение игрой или нахождение единственного правильного ответа, модели обучения с подкреплением превосходят генеративный искусственный интеллект – выяснил Мэтт Асей из InfoWorld. Появление больших языковых моделей (LLM), таких как GPT-4, с их способностью генерировать очень беглый, уверенный текст, было замечательным. К сожалению, то же самое произошло и с шумихой: исследователи Microsoft, затаив дыхание, описали модель OpenAI GPT-4, финансируемую Microsoft, как демонстрирующую “искры общего искусственного интеллекта”. Извините, Microsoft. Нет, это не так… Если, конечно, Microsoft не имела в виду склонность к галлюцинациям — генерированию некорректного текста, который заведомо неверен, — что слишком по-человечески. GPT также плохо играют в такие игры, как шахматы и го, довольно слабо разбираются в математике и могут писать код с ошибками и малозаметными багами.


Внимание!
Полный текст статьи доступен только для экспертов и зарегистрированных пользователей.


0


Нет комментариев. Ваш будет первым!
Загрузка...