Вслед за NVIDIA собственную технологию нейронного сжатия текстур показала Intel. Разработка под названием Texture Set Neural Compression (TSNC) позволяет уменьшить объём текстурных наборов до 18 раз, при этом, по заявлениям компании, визуальные различия между сжатым и оригинальным изображением остаются минимальными.
Intel подготовила две модели: первая сжимает текстуры примерно в 9 раз почти без потерь качества, а вторая — уже в 18 раз, но с чуть более заметным снижением детализации. Компания оценила ухудшение картинки с помощью инструмента NVIDIA FLIP: для варианта первой модели разница составила около 5%, а для второй» — 7%.

Технология работает так: стандартные текстуры в формате BCn подаются на нейросеть, которая кодирует их в так называемое латентное пространство, а затем декодер восстанавливает изображение. Итоговый размер данных может быть в 18 раз меньше исходного и разработчики смогут выбирать между экономией места на диске, снижением потребления видеопамяти или ускорением загрузки уровней — в зависимости от того, что важнее в конкретном проекте.
Особое внимание Intel уделила производительности декодирования. Тесты проводились на системе с процессором Panther Lake и встроенной графикой Arc B390 и время получения первого пикселя текстуры составило около 0,194 наносекунды. Такая задержка, по заверению разработчиков, не должна влиять ни на частоту кадров, ни на плавность рендеринга. Intel планирует выпустить альфа-версию SDK до конца этого года, а затем последуют бета-тестирование и полноценный публичный релиз. API для распаковки данных будет компилироваться на C, C++ или HLSL.
С первого взгляда изменение вообще незаметны
Примечательно, что похожую технологию нейронного сжатия текстур на днях анонсировала и NVIDIA, а еще раньше подобный анонс провела AMD. Похоже, что отрасль всерьёз взялась за замену классического блочного сжатия на нейросетевые методы и к концу года у разработчиков может появиться выбор, чей SDK использовать.
Как думаете, стоит ли разработчикам игр внедрять нейронное сжатие уже в ближайших проектах или лучше подождать, пока технология станет более зрелой и стандартизированной? Делитесь мнением в комментариях.
PC НовостиЖелезо и технологииАнонсыIntel
Источник: vgtimes.ru