RUTUBE
Добавить
Уведомления
  • Главная
  • RUTUBE для блогеров
  • Каталог
  • Популярное
  • В топе
  • Shorts
  • ТВ онлайн
  • Трансляции
  • Моё
  • Фильмы
  • RUTUBE x PREMIER
  • Сезон контента 2.0

Войдите, чтобы подписываться на каналы, комментировать видео и оставлять реакции


  • Подписки
  • История просмотра
  • Плейлисты
  • Смотреть позже
  • Комментарии
  • Понравилось

  • Авто
  • Анимация
  • Блогеры
  • Видеоигры
  • Детям
  • Еда
  • Интервью
  • Команда R
  • Культура
  • Лайфхаки
  • Музыка
  • Новости и СМИ
  • Обучение
  • Оriginals
  • Подкасты
  • Путешествия
  • Радио
  • Разговоры о важном
  • Сельское хозяйство
  • Сериалы
  • Спорт
  • Телешоу
  • Фонды помощи
  • Футбол
  • Юмор
  • RUTUBE TV
Телеканалы
  • Иконка канала Первый канал
    Первый канал
  • Иконка канала Россия 1
    Россия 1
  • Иконка канала МАТЧ
    МАТЧ
  • Иконка канала НТВ
    НТВ
  • Иконка канала Пятый канал
    Пятый канал
  • Иконка канала Телеканал Культура
    Телеканал Культура
  • Иконка канала Россия 24
    Россия 24
  • Иконка канала ТВЦ
    ТВЦ
  • Иконка канала РЕН ТВ
    РЕН ТВ
  • Иконка канала СПАС
    СПАС
  • Иконка канала СТС
    СТС
  • Иконка канала Домашний
    Домашний
  • Иконка канала ТВ-3
    ТВ-3
  • Иконка канала Пятница
    Пятница
  • Иконка канала Звезда
    Звезда
  • Иконка канала МИР ТВ
    МИР ТВ
  • Иконка канала ТНТ
    ТНТ
  • Иконка канала МУЗ-ТВ
    МУЗ-ТВ
  • Иконка канала ЧЕ
    ЧЕ
  • Иконка канала Канал «Ю»
    Канал «Ю»
  • Иконка канала 2х2
    2х2
  • Иконка канала Кухня
    Кухня
  • Иконка канала viju
    viju


RUTUBE всегда с вами
Больше от RUTUBE
  • SMART TV
  • RUTUBE Детям
  • RUTUBE Спорт
  • RUTUBE Новости
RUTUBE в других соцсетях

  • Вопросы и ответы
  • Сообщить о проблеме
  • Написать в поддержку
  • О RUTUBE
  • Направления деятельности
  • Пользовательское соглашение
  • Конфиденциальность
  • Правовая информация
  • Рекомендательная система
  • Фирменный стиль

© 2025, RUTUBE

Preferring Shorter Thinking Chains for Improved LLM

Предпочтение более коротких цепочек рассуждений для улучшения логических способностей LLM Резюме (Русский) Большие языковые модели часто полагаются на генерацию длинных «цепочек рассуждений» для выполнения сложных логических задач. Эта стратегия, хотя и эффективна, влечет за собой значительные вычислительные затраты и увеличивает время инференса. Эта работа оспаривает общепринятое мнение о том, что более длинные цепочки рассуждений обязательно приводят к лучшим логическим выводам. Эмпирические данные показывают, что более короткие цепочки рассуждений для данного вопроса значительно чаще оказываются правильными по сравнению с более длинными. Основываясь на этом наблюдении, авторы предлагают short-m@k — новый метод инференса для логического вывода LLM. Этот метод запускает k параллельных генераций и останавливает вычисления, как только первые m завершают свой мыслительный процесс. Окончательный ответ затем определяется путем голосования по большинству среди результатов этих завершенных более коротких цепочек. Оценки показывают, что short-1@k работает сопоставимо или лучше, чем стандартное голосование по большинству в условиях низких вычислительных мощностей с меньшими затратами. Вариант short-3@k последовательно превосходит голосование по большинству по точности при любых вычислительных бюджетах, одновременно значительно сокращая общее время выполнения. Дополнительные эксперименты показывают, что обучение LLM на наборах данных, акцентирующих внимание на более коротких траекториях рассуждений, повышает производительность и эффективность. документ - https://arxiv.org/pdf/2505.17813v1 подписаться - https://t.me/arxivdotorg создано с помощью NotebookLM

Иконка канала Paper debate
Paper debate
12+
4 просмотра
2 месяца назад
27 мая 2025 г.
ПожаловатьсяНарушение авторских прав
12+
4 просмотра
2 месяца назад
27 мая 2025 г.

Предпочтение более коротких цепочек рассуждений для улучшения логических способностей LLM Резюме (Русский) Большие языковые модели часто полагаются на генерацию длинных «цепочек рассуждений» для выполнения сложных логических задач. Эта стратегия, хотя и эффективна, влечет за собой значительные вычислительные затраты и увеличивает время инференса. Эта работа оспаривает общепринятое мнение о том, что более длинные цепочки рассуждений обязательно приводят к лучшим логическим выводам. Эмпирические данные показывают, что более короткие цепочки рассуждений для данного вопроса значительно чаще оказываются правильными по сравнению с более длинными. Основываясь на этом наблюдении, авторы предлагают short-m@k — новый метод инференса для логического вывода LLM. Этот метод запускает k параллельных генераций и останавливает вычисления, как только первые m завершают свой мыслительный процесс. Окончательный ответ затем определяется путем голосования по большинству среди результатов этих завершенных более коротких цепочек. Оценки показывают, что short-1@k работает сопоставимо или лучше, чем стандартное голосование по большинству в условиях низких вычислительных мощностей с меньшими затратами. Вариант short-3@k последовательно превосходит голосование по большинству по точности при любых вычислительных бюджетах, одновременно значительно сокращая общее время выполнения. Дополнительные эксперименты показывают, что обучение LLM на наборах данных, акцентирующих внимание на более коротких траекториях рассуждений, повышает производительность и эффективность. документ - https://arxiv.org/pdf/2505.17813v1 подписаться - https://t.me/arxivdotorg создано с помощью NotebookLM

, чтобы оставлять комментарии