RUTUBE
Добавить
Уведомления
  • Главная
  • RUTUBE для блогеров
  • Каталог
  • Популярное
  • В топе
  • Shorts
  • ТВ онлайн
  • Трансляции
  • Моё
  • Фильмы
  • RUTUBE x PREMIER
  • Сезон контента 2.0

Войдите, чтобы подписываться на каналы, комментировать видео и оставлять реакции


  • Подписки
  • История просмотра
  • Плейлисты
  • Смотреть позже
  • Комментарии
  • Понравилось

  • Авто
  • Анимация
  • Блогеры
  • Видеоигры
  • Детям
  • Еда
  • Интервью
  • Команда R
  • Культура
  • Лайфхаки
  • Музыка
  • Новости и СМИ
  • Обучение
  • Оriginals
  • Подкасты
  • Путешествия
  • Радио
  • Разговоры о важном
  • Сельское хозяйство
  • Сериалы
  • Спорт
  • Телешоу
  • Фонды помощи
  • Футбол
  • Юмор
  • RUTUBE TV
Телеканалы
  • Иконка канала Первый канал
    Первый канал
  • Иконка канала Россия 1
    Россия 1
  • Иконка канала МАТЧ
    МАТЧ
  • Иконка канала НТВ
    НТВ
  • Иконка канала Пятый канал
    Пятый канал
  • Иконка канала Телеканал Культура
    Телеканал Культура
  • Иконка канала Россия 24
    Россия 24
  • Иконка канала ТВЦ
    ТВЦ
  • Иконка канала РЕН ТВ
    РЕН ТВ
  • Иконка канала СПАС
    СПАС
  • Иконка канала СТС
    СТС
  • Иконка канала Домашний
    Домашний
  • Иконка канала ТВ-3
    ТВ-3
  • Иконка канала Пятница
    Пятница
  • Иконка канала Звезда
    Звезда
  • Иконка канала МИР ТВ
    МИР ТВ
  • Иконка канала ТНТ
    ТНТ
  • Иконка канала МУЗ-ТВ
    МУЗ-ТВ
  • Иконка канала ЧЕ
    ЧЕ
  • Иконка канала Канал «Ю»
    Канал «Ю»
  • Иконка канала 2х2
    2х2
  • Иконка канала Кухня
    Кухня
  • Иконка канала viju
    viju


RUTUBE всегда с вами
Больше от RUTUBE
  • SMART TV
  • RUTUBE Детям
  • RUTUBE Спорт
  • RUTUBE Новости
RUTUBE в других соцсетях

  • Вопросы и ответы
  • Сообщить о проблеме
  • Написать в поддержку
  • О RUTUBE
  • Направления деятельности
  • Пользовательское соглашение
  • Конфиденциальность
  • Правовая информация
  • Рекомендательная система
  • Фирменный стиль

© 2025, RUTUBE

STARFLOW: Scaling Latent Normalizing Flows for High-resolution Image Synthesis

В этой статье представлен STARFlow, масштабируемая генеративная модель, основанная на нормализующих потоках и предназначенная для синтеза изображений высокого разрешения. Опираясь на архитектуру Transformer Autoregressive Flow (TARFlow), STARFlow стремится расширить границы генерации изображений на основе потоков. Авторы сначала устанавливают теоретическую универсальность стекированных авторегрессионных потоков для моделирования непрерывных распределений. Ключевое нововведение — архитектура "глубокий-мелкий" (deep-shallow), где большая часть емкости модели сосредоточена в глубоком блоке, за которым следуют вычислительно более дешевые мелкие блоки. Еще одна важная техника — обучение в латентном пространстве предобученных автокодировщиков, что оказывается намного эффективнее прямого моделирования пикселей для высоких разрешений. STARFlow также включает новый алгоритм управления (guidance), переосмысленный с точки зрения функции оценки (score function), который значительно улучшает качество сэмплов, особенно при генерации изображений по тексту. Модель представляет собой сквозной (end-to-end) нормализующий поток, что позволяет проводить точное обучение методом максимального правдоподобия в непрерывном пространстве без ограничений дискретизации. Экспериментальные результаты показывают, что STARFlow достигает конкурентоспособных результатов на бенчмарках генерации изображений, обусловленной классом и текстом, приближаясь по качеству к передовым диффузионным моделям. Модель успешно генерирует изображения высокого разрешения с переменным соотношением сторон и поддерживает такие приложения, как инпейнтинг (inpainting) и редактирование. STARFlow представляет собой первую успешную демонстрацию нормализующих потоков, эффективно работающих в таком масштабе и разрешении, предлагая масштабируемую альтернативу диффузионным и авторегрессионным методам, несмотря на некоторые текущие ограничения. статья - https://arxiv.org/pdf/2506.06276v1 подписаться - https://t.me/arxivdotorg создано с помощью NotebookLM

Иконка канала Paper debate
Paper debate
12+
8 просмотров
2 месяца назад
10 июня 2025 г.
ПожаловатьсяНарушение авторских прав
12+
8 просмотров
2 месяца назад
10 июня 2025 г.

В этой статье представлен STARFlow, масштабируемая генеративная модель, основанная на нормализующих потоках и предназначенная для синтеза изображений высокого разрешения. Опираясь на архитектуру Transformer Autoregressive Flow (TARFlow), STARFlow стремится расширить границы генерации изображений на основе потоков. Авторы сначала устанавливают теоретическую универсальность стекированных авторегрессионных потоков для моделирования непрерывных распределений. Ключевое нововведение — архитектура "глубокий-мелкий" (deep-shallow), где большая часть емкости модели сосредоточена в глубоком блоке, за которым следуют вычислительно более дешевые мелкие блоки. Еще одна важная техника — обучение в латентном пространстве предобученных автокодировщиков, что оказывается намного эффективнее прямого моделирования пикселей для высоких разрешений. STARFlow также включает новый алгоритм управления (guidance), переосмысленный с точки зрения функции оценки (score function), который значительно улучшает качество сэмплов, особенно при генерации изображений по тексту. Модель представляет собой сквозной (end-to-end) нормализующий поток, что позволяет проводить точное обучение методом максимального правдоподобия в непрерывном пространстве без ограничений дискретизации. Экспериментальные результаты показывают, что STARFlow достигает конкурентоспособных результатов на бенчмарках генерации изображений, обусловленной классом и текстом, приближаясь по качеству к передовым диффузионным моделям. Модель успешно генерирует изображения высокого разрешения с переменным соотношением сторон и поддерживает такие приложения, как инпейнтинг (inpainting) и редактирование. STARFlow представляет собой первую успешную демонстрацию нормализующих потоков, эффективно работающих в таком масштабе и разрешении, предлагая масштабируемую альтернативу диффузионным и авторегрессионным методам, несмотря на некоторые текущие ограничения. статья - https://arxiv.org/pdf/2506.06276v1 подписаться - https://t.me/arxivdotorg создано с помощью NotebookLM

, чтобы оставлять комментарии