RUTUBE
Добавить
Уведомления
  • Главная
  • RUTUBE для блогеров
  • Каталог
  • Популярное
  • В топе
  • Shorts
  • ТВ онлайн
  • Трансляции
  • Моё
  • Фильмы
  • RUTUBE x PREMIER
  • Сезон контента 2.0

Войдите, чтобы подписываться на каналы, комментировать видео и оставлять реакции


  • Подписки
  • История просмотра
  • Плейлисты
  • Смотреть позже
  • Комментарии
  • Понравилось

  • Авто
  • Анимация
  • Блогеры
  • Видеоигры
  • Детям
  • Еда
  • Интервью
  • Команда R
  • Культура
  • Лайфхаки
  • Музыка
  • Новости и СМИ
  • Обучение
  • Оriginals
  • Подкасты
  • Путешествия
  • Радио
  • Разговоры о важном
  • Сельское хозяйство
  • Сериалы
  • Спорт
  • Телешоу
  • Фонды помощи
  • Футбол
  • Юмор
  • RUTUBE TV
Телеканалы
  • Иконка канала Первый канал
    Первый канал
  • Иконка канала Россия 1
    Россия 1
  • Иконка канала МАТЧ
    МАТЧ
  • Иконка канала НТВ
    НТВ
  • Иконка канала Пятый канал
    Пятый канал
  • Иконка канала Телеканал Культура
    Телеканал Культура
  • Иконка канала Россия 24
    Россия 24
  • Иконка канала ТВЦ
    ТВЦ
  • Иконка канала РЕН ТВ
    РЕН ТВ
  • Иконка канала СПАС
    СПАС
  • Иконка канала СТС
    СТС
  • Иконка канала Домашний
    Домашний
  • Иконка канала ТВ-3
    ТВ-3
  • Иконка канала Пятница
    Пятница
  • Иконка канала Звезда
    Звезда
  • Иконка канала МИР ТВ
    МИР ТВ
  • Иконка канала ТНТ
    ТНТ
  • Иконка канала МУЗ-ТВ
    МУЗ-ТВ
  • Иконка канала ЧЕ
    ЧЕ
  • Иконка канала Канал «Ю»
    Канал «Ю»
  • Иконка канала 2х2
    2х2
  • Иконка канала Кухня
    Кухня
  • Иконка канала viju
    viju


RUTUBE всегда с вами
Больше от RUTUBE
  • SMART TV
  • RUTUBE Детям
  • RUTUBE Спорт
  • RUTUBE Новости
RUTUBE в других соцсетях

  • Вопросы и ответы
  • Сообщить о проблеме
  • Написать в поддержку
  • О RUTUBE
  • Направления деятельности
  • Пользовательское соглашение
  • Конфиденциальность
  • Правовая информация
  • Рекомендательная система
  • Фирменный стиль

© 2025, RUTUBE

Diffuse and Disperse: Image Generation with Representation Regularization

Распространение и Рассеивание: Генерация Изображений с Регуляризацией Представлений Развитие диффузионных генеративных моделей в значительной степени происходило независимо от достижений в обучении представлений. Эти модели обычно основаны на регрессионных целевых функциях и не имеют явной регуляризации на обучаемых представлениях. В этой работе предлагается Dispersive Loss, простой подключаемый регуляризатор для улучшения диффузионных моделей. Dispersive Loss стимулирует рассеивание внутренних представлений в скрытом пространстве, аналогично контрастному обучению, но без необходимости в положительных парах. Такой дизайн позволяет применять его к одному батчу без дополнительных представлений, аугментации или параметров, легко интегрируясь со стандартной диффузионной функцией потерь. Концепция Dispersive Loss может быть получена из различных контрастных функций потерь путем удаления положительных членов. Эксперименты на ImageNet с моделями DiT и SiT различного масштаба показывают стабильное улучшение производительности по сравнению с сильными базовыми моделями. Показано, что эффект регуляризации устойчив к выбору гиперпараметров и конкретному слою, к которому он применяется. Dispersive Loss также улучшает одношаговые генеративные модели, такие как MeanFlow, достигая современных результатов. В отличие от методов, основанных на внешнем предварительном обучении, таких как REPA, Dispersive Loss является полностью самодостаточным. документ - https://arxiv.org/pdf/2506.09027v1 подписаться - https://t.me/arxivdotorg создано с помощью NotebookLM

Иконка канала Paper debate
Paper debate
12+
3 просмотра
2 месяца назад
13 июня 2025 г.
ПожаловатьсяНарушение авторских прав
12+
3 просмотра
2 месяца назад
13 июня 2025 г.

Распространение и Рассеивание: Генерация Изображений с Регуляризацией Представлений Развитие диффузионных генеративных моделей в значительной степени происходило независимо от достижений в обучении представлений. Эти модели обычно основаны на регрессионных целевых функциях и не имеют явной регуляризации на обучаемых представлениях. В этой работе предлагается Dispersive Loss, простой подключаемый регуляризатор для улучшения диффузионных моделей. Dispersive Loss стимулирует рассеивание внутренних представлений в скрытом пространстве, аналогично контрастному обучению, но без необходимости в положительных парах. Такой дизайн позволяет применять его к одному батчу без дополнительных представлений, аугментации или параметров, легко интегрируясь со стандартной диффузионной функцией потерь. Концепция Dispersive Loss может быть получена из различных контрастных функций потерь путем удаления положительных членов. Эксперименты на ImageNet с моделями DiT и SiT различного масштаба показывают стабильное улучшение производительности по сравнению с сильными базовыми моделями. Показано, что эффект регуляризации устойчив к выбору гиперпараметров и конкретному слою, к которому он применяется. Dispersive Loss также улучшает одношаговые генеративные модели, такие как MeanFlow, достигая современных результатов. В отличие от методов, основанных на внешнем предварительном обучении, таких как REPA, Dispersive Loss является полностью самодостаточным. документ - https://arxiv.org/pdf/2506.09027v1 подписаться - https://t.me/arxivdotorg создано с помощью NotebookLM

, чтобы оставлять комментарии