Deltoro
Krator
- Messages
- 1,168
- Reaction score
- 698
Ок, значит модели не используют новые, это было достаточно сказать. Но в случае, если бы модели были новые, то текстуры подтянуть можно было бы автоматом. Да-да-да, существуют уже механизмы, которые по развёртке и модели понимают, что это за предмет и апскейлят его, добавляя (додумывая) даже детализацию. Например:на это забили и начали оставлять дефолтные
- NVIDIA RTX Remix
- При ремастеринге старых игр RTX Remix берёт UV-развёртку, определяет объект (например, «это дверь», «это камень»), и через нейросеть перерисовывает текстуры в более высоком разрешении.
- Сеть ориентируется на 3D-модель и UV-карту, а не просто на плоское изображение.
- Ограничение — заточено под их экосистему и игры на DX8/9.
- Adobe Substance 3D Sampler / Painter (с AI Upscale)
- Новые версии умеют «понимать» модель через UV и AI-based upscaling.
- Можно загрузить модель с UV, и апскейл пойдёт с учётом того, где на 3D-модели находится каждая часть.
- Это ближе к semantic upscaling — сеть понимает, что вот тут металл, а тут кожа, и подбирает соответствующую детализацию.
- Kaedim 3D + Meshcapade AI
- Оба сервиса могут по UV апскейлить или перегенерировать текстуры, учитывая геометрию.
- Работает через распаковку UV в 3D-контексте, апскейл в текстурном пространстве, потом обратную упаковку.
- Custom pipeline с Blender + ControlNet / Stable Diffusion
- В Blender можно развернуть модель в UV space, прогнать её через Stable Diffusion с ControlNet (режим Inpaint + Tile Upscale), где ControlNet знает UV-маску.
- Так можно апскейлить с пониманием, где что находится, и даже стилизовать под нужный материал.
К счастью, я понимаю о чём вы говорите, но не слышите меня, считая, что такие механизмы являются фантастикой =) Технологии очень быстро развиваются. =) Было бы желание, автоматизировать можно было бы =)