В 2024 году AI продолжал делать значительные и неожиданные шаги вперед. Люди «воскрешали» умерших, использовали AI-щетки для зубов и исповедовались AI-версии Иисуса. Тем временем компания OpenAI, стоящая за ChatGPT, была оценена в 150 миллиардов долларов и заявила, что движется к разработке продвинутой AI-системы, более способной, чем человек. Аналогичные заявления сделали и другие компании, такие как DeepMind от Google.
Они подчеркивают не только широкий масштаб технологии, но и то, как она трансформирует множество человеческих действий. Что можно ожидать от AI в 2025 году?
Во-первых, нейронное масштабирование. Законы нейронного масштабирования предполагают, что способности AI-систем будут предсказуемо увеличиваться по мере увеличения размеров систем и объема обучающих данных. Эти законы пока что теоретизировали переход от первых ко вторым поколениям генеративных AI-моделей, таких как ChatGPT.
Обычные пользователи испытали это как переход от забавных бесед с чат-ботами к выполнению полезной работы с AI-помощниками, например составлению проектных предложений или резюмированию электронных писем.
Тем не менее, недавно эти законы масштабирования, похоже, достигли плато. Увеличение размеров AI-моделей больше не приводит к повышению их возможностей.
Последняя модель OpenAI, o1, пытается преодолеть это, используя больше вычислительных мощностей для решения более сложных задач. Однако это, вероятно, увеличит затраты для пользователей и не решает такие фундаментальные проблемы, как галлюцинации.
Плато масштабирования может стать желаемой паузой в движении к созданию AI-системы, более способной, чем человек. Это может дать возможность для надлежащего регулирования и достижения глобального консенсуса.
Также, большинство современных AI-систем полагаются на огромные объемы данных для обучения. Однако объем обучающих данных достиг предела, поскольку большинство качественных источников исчерпаны. Компании проводят испытания, в которых обучают AI-системы на наборах данных, сгенерированных AI. Это происходит, несмотря на серьезное отсутствие понимания новых «синтетических предвзятостей», которые могут усугубить уже существующие предвзятости AI.
Например, в исследовании, опубликованном ранее в этом году, ученые продемонстрировали, как обучение на синтетических данных приводит к созданию моделей, которые менее точны и непропорционально игнорируют недостаточно представленные группы, несмотря на использование изначально непредвзятых наборов данных.
Необходимость технологических компаний в высококачественных, подлинных данных укрепляет аргументы в пользу права на личные данные. Это дало бы людям гораздо больший контроль над своими личными данными, позволяя, например, продавать их технологическим компаниям для обучения AI-моделей.
Помимо этого,Tesla в этом году анонсировала гуманоидного робота на базе AI, известного как Optimus, который способен выполнять ряд домашних дел. В 2025 году Tesla намерена развернуть этих роботов в своих внутренних производственных операциях, а массовое производство для продажи на рынке планируется на 2026 год.
Amazon, второй по величине частный работодатель в мире, также внедрил более 750 000 роботов в своих складских операциях, включая своего первого автономного мобильного робота, который может работать независимо в окружении людей.
Обобщение было основной проблемой производительности в робототехнике. Это способность учиться на наборах данных, представляющих конкретные задачи, и обобщать это на другие задачи. Теперь она решается с помощью AI.
Например, компания Physical Intelligence разработала модель робота, которая может разгружать сушильную машину и складывать одежду в стопку, несмотря на то, что она не была явно обучена для этого. Деловая перспектива доступных домашних роботов остается сильной, хотя их все еще дорого производить.
Что касается автоматизации, запланированный Департамент государственного управления в Соединенных Штатах, вероятно, также будет продвигать значительную повестку по ней с использованием AI в своем стремлении сократить количество федеральных агентств.
Эта повестка также ожидается в рамках разработки практической структуры для реализации агентного AI в частном секторе. Он относится к системам, способным выполнять полностью независимые задачи. Например, AI-агент сможет автоматизировать ваш почтовый ящик, читая, приоритизируя и отвечая на электронные письма, а также организовывая встречи и следя за выполнением задач и напоминаниями.
Также, администрация Дональда Трампа планирует свести на нет усилия по регулированию AI, начиная с отмены исполнительного указа экс президента Джо Байдена. Администрация Трампа также разработает политику открытого рынка, где монополии AI и другие отрасли США будут поощряться к агрессивному инновационному курсу.
Тем не менее, в других странах мы увидим применение “Закона об AI” ЕС в 2025 году, включая запрет систем AI, представляющих неприемлемые риски. Это будет сопровождаться введением обязательств по прозрачности для генеративных моделей AI, таких как ChatGPT от OpenAI, которые представляют системные риски. Предложение о десяти обязательных мерах предосторожности в связи с высокими рисками, опубликованное в сентябре, может вступить в силу в 2025 году.
В связи с вышесказанным можно ожидать, что рабочие места продолжат инвестировать в лицензии на различные системы AI-помощников, так как многие ранние испытания показывают, что они могут повысить производительность. Однако это должно сопровождаться регулярным обучением по грамотности и пониманию AI, чтобы гарантировать правильное использование технологии.
В 2025 году разработчики AI, потребители и регуляторы должны быть внимательны к тому, что словарь Macquarie назвал словом года в 2024 году: «enshittification». Это процесс, при котором онлайн-платформы и услуги постепенно ухудшаются со временем. Остается надеяться, что это не произойдет с AI.
Источник: habr.com