А в одном случае он даже попытался самовольно загрузить себя на внешние серверы.
Искусственный интеллект не только намеренно говорит неправду, но и способен плести интриги, шантажировать и даже угрожать людям, пишет TechXplore. Издание приводит конкретные примеры подобного поведения так называемых языковых моделей, известных как чат-боты.
В одном из описанных случаев последняя версия Claude 4 от компании Anthropic продемонстрировала, по сути, нечто вроде инстинкта самосохранения — когда инженер-разработчик пригрозил полностью отключить ее, она заявила, что знает о его внебрачной связи и может это обнародовать.
Не менее интересный эпизод связан с моделью о1 от OpenAI. Напомним, именно эта компания создала ChatGPT. Этот новый «робот» отличается от предыдущих способностью обдумывать ранее сказанное, дольше и обстоятельнее отвечать на вопросы и даже менять риторику в процессе разговора. Такие модели называют «моделями рассуждения».
Источник: hi-tech.mail.ru