В блоге Google AI, посвященном исследованиям и разработкам в области искусственного интеллекта, обнаружили демонстрацию технологии масштабирования изображений на базе диффузионных моделей.
Специалисты внутренней команды Brain Team представили два связанных алгоритма, которые генерируют фотографии высокой четкости без потери качества.
Первый из них называется SR3. На вход подается картинка с низким разрешением, и нейросеть пытается увеличить ее, добавляя шум. Модель обучается методам искажения изображения, а затем поворачивает весь процесс вспять, постепенно удаляя шум для достижения заявленного результата.
В компании разработали еще одну модель под названием CDM. На этот раз нейросеть обучили миллионам изображений высокого разрешения из базы ImageNet.
Алгоритм использует каскадный подход и увеличивает фотографии в два этапа: с разрешения 32×32 -> 64×64 -> 256×256 — в 8 раз, либо с 64×64 -> 256×256 -> 1024×1024 — в 16 раз.
Google опубликовала примеры работы алгоритмов. О коммерческом распространении технологии данных пока нет.
Источник: vc.ru