Эксперт: ChatGPT получит тело, душу и лишится страха

Он также отметил, что искусственный интеллект не придерживается никаких правил робототехники. ИИ не выделяет понятия и смыслы, он всего лишь оперирует огромными массивами данных, находя в них зависимости, неочевидные для человека.

Об этом рассказал ИИ-исследователь и ведущий телеграм-канала «Малоизвестное интересное» Сергей Карелов в интервью изданию RTVI. Он уточнил, что искусственный интеллект никто не обучает — у него нет учителей, он развивается самостоятельно. ИИ поглощает и анализирует огромные объемы данных и выдает ответы пользователям на основе того, что есть в его базе. Однако, как и человек, ИИ иногда может выдавать ложную информацию. Работает этот недостаток по схожей схеме с человеческими «ложными воспоминаниями», когда субъективное восприятие реальности преподносится индивидами как объективный факт.

Так и с искусственным интеллектом — он не понимает, «скармливают» ли ему ложь или правду. Однако каждая крупица информации по итогу используется для создания машинного видения картины мира. И это несколько настораживает, так как ИИ не придерживается законов робототехники, лишь оперируя гигантскими матрицами и находя в них зависимости. Поэтому предсказать поведение ИИ невозможно — никто не знает, как функционирует машинное обучение внутри. Ведь нереально отследить последовательность того, как ИИ сопоставляет триллионы частотных сопоставлений матриц.

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
0
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии