Новое исследование, проведенное Университетом Бат и Техническим университетом Дармштадта, показывает, что большие языковые модели, такие как ChatGPT, не могут обучаться самостоятельно и приобретать новые навыки без явных указаний. Это делает их безопасными и предсказуемыми.
В рамках 62-й ежегодной конференции Ассоциации вычислительной лингвистики (ACL 2024) были представлены результаты, демонстрирующие, что LLM, хотя и способны выполнять задачи по заданным примерам, не могут развивать сложные навыки без дополнительного обучения. Модели остаются контролируемыми и не представляют угрозу для человечества.
Исследование подтвердило, что опасения по поводу способности LLM к сложному рассуждению и планированию не обоснованы. Большие модели могут выполнять более сложные языковые задачи и следовать детализированным инструкциям, однако они не имеют способности к самостоятельному приобретению новых знаний.
Источник: www.ferra.ru