В этом разделе определяется новая, практическая проблема Поэкземплярного инкрементного обучения (IIL), ориентированная на экономически эффективное продвижение модели в развернутых системах.В этом разделе определяется новая, практическая проблема Поэкземплярного инкрементного обучения (IIL), ориентированная на экономически эффективное продвижение модели в развернутых системах.

Новая настройка IIL: улучшение развернутых моделей только с новыми данными

2025/11/05 23:00

Резюме и 1 Введение

  1. Связанные работы

  2. Постановка проблемы

  3. Методология

    4.1. Дистилляция с учетом границы решения

    4.2. Консолидация знаний

  4. Экспериментальные результаты и 5.1. Настройка эксперимента

    5.2. Сравнение с современными методами

    5.3. Исследование методом абляции

  5. Заключение и дальнейшая работа и Ссылки

    \

Дополнительные материалы

  1. Детали теоретического анализа механизма KCEMA в IIL
  2. Обзор алгоритма
  3. Детали набора данных
  4. Детали реализации
  5. Визуализация запыленных входных изображений
  6. Дополнительные экспериментальные результаты

3. Постановка проблемы

Иллюстрация предложенной настройки IIL показана на Рис. 1. Как видно, данные генерируются непрерывно и непредсказуемо в потоке данных. Обычно в реальных приложениях люди склонны сначала собирать достаточно данных и обучать сильную модель M0 для развертывания. Независимо от того, насколько сильна модель, она неизбежно столкнется с данными вне распределения и потерпит неудачу. Эти неудачные случаи и другие новые наблюдения с низкими оценками будут аннотированы для периодического обучения модели. Переобучение модели со всеми накопленными данными каждый раз приводит к все более высоким затратам времени и ресурсов. Поэтому новый IIL направлен на улучшение существующей модели только с новыми данными каждый раз.

\

\ Рисунок 2. Границы решения (DB): (a) DB, изученные из старых и новых данных соответственно. По отношению к старому DB новые данные можно разделить на внутренние и внешние образцы. (b) идеальный DB путем совместного обучения на старых и новых данных. (c) тонкая настройка модели на новых данных с одноразовыми метками страдает от CF. (d) обучение с дистилляцией на прототипных примерах вызывает переобучение к этим примерам и коллапс DB. (e) DB, достигнутый с использованием нашей дистилляции с учетом границы решения (DBD).

\

:::info Авторы:

(1) Цян Не, Гонконгский университет науки и технологии (Гуанчжоу);

(2) Вэйфу Фу, Лаборатория Tencent Youtu;

(3) Юхуань Линь, Лаборатория Tencent Youtu;

(4) Цзялинь Ли, Лаборатория Tencent Youtu;

(5) Ифэн Чжоу, Лаборатория Tencent Youtu;

(6) Юн Лю, Лаборатория Tencent Youtu;

(7) Цян Не, Гонконгский университет науки и технологии (Гуанчжоу);

(8) Чэнцзе Ван, Лаборатория Tencent Youtu.

:::


:::info Эта статья доступна на arxiv под лицензией CC BY-NC-ND 4.0 Deed (Attribution-Noncommercial-Noderivs 4.0 International).

:::

\

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно

Комиссия по ценным бумагам и биржам США выпускает руководство для инвесторов о криптовалютных кошельках и рисках хранения

Комиссия по ценным бумагам и биржам США выпускает руководство для инвесторов о криптовалютных кошельках и рисках хранения

Комиссия по ценным бумагам и биржам США выпустила руководство по криптовалютным кошелькам и хранению для инвесторов.
Поделиться
Cryptopolitan2025/12/14 08:38