Цей розділ визначає новий, практичний підхід до навчання з поступовим додаванням екземплярів (Instance-Incremental Learning, IIL), зосереджений на економічно ефективному просуванні моделей у розгорнутих системах.Цей розділ визначає новий, практичний підхід до навчання з поступовим додаванням екземплярів (Instance-Incremental Learning, IIL), зосереджений на економічно ефективному просуванні моделей у розгорнутих системах.

Нове налаштування IIL: покращення розгорнутих моделей лише з новими даними

2025/11/05 23:00

Анотація та 1 Вступ

  1. Пов'язані роботи

  2. Постановка проблеми

  3. Методологія

    4.1. Дистиляція з урахуванням меж прийняття рішень

    4.2. Консолідація знань

  4. Експериментальні результати та 5.1. Налаштування експерименту

    5.2. Порівняння з методами SOTA

    5.3. Дослідження абляції

  5. Висновок та майбутня робота та Посилання

    \

Додатковий матеріал

  1. Деталі теоретичного аналізу механізму KCEMA в IIL
  2. Огляд алгоритму
  3. Деталі набору даних
  4. Деталі реалізації
  5. Візуалізація запилених вхідних зображень
  6. Більше експериментальних результатів

3. Постановка проблеми

Ілюстрація запропонованого налаштування IIL показана на рис. 1. Як можна побачити, дані генеруються безперервно та непередбачувано в потоці даних. Загалом у реальному застосуванні люди схильні спочатку зібрати достатньо даних і навчити сильну модель M0 для розгортання. Незалежно від того, наскільки сильною є модель, вона неминуче зіткнеться з даними поза розподілом і зазнає невдачі. Ці невдалі випадки та інші нові спостереження з низькою оцінкою будуть анотовані для навчання моделі час від часу. Перенавчання моделі з усіма накопиченими даними щоразу призводить до все більших витрат часу та ресурсів. Тому новий IIL спрямований на вдосконалення існуючої моделі лише з новими даними кожного разу.

\

\ Рисунок 2. Межі прийняття рішень (DB): (a) DB, вивчені відповідно зі старих даних та нових даних. Відносно старого DB нові дані можна розділити на внутрішні зразки та зовнішні зразки. (b) ідеальний DB шляхом спільного навчання на старих та нових даних. (c) точне налаштування моделі на нових даних з одноразовими мітками страждає від CF. (d) навчання з дистиляцією на прототипних прикладах призводить до перенавчання на цих прикладах та колапсу DB. (e) DB, досягнутий за допомогою нашої дистиляції з урахуванням меж прийняття рішень (DBD).

\

:::info Автори:

(1) Цян Не, Гонконгський університет науки і технології (Гуанчжоу);

(2) Вейфу Фу, Лабораторія Tencent Youtu;

(3) Юхуань Лінь, Лабораторія Tencent Youtu;

(4) Цзялінь Лі, Лабораторія Tencent Youtu;

(5) Іфен Чжоу, Лабораторія Tencent Youtu;

(6) Юн Лю, Лабораторія Tencent Youtu;

(7) Цян Не, Гонконгський університет науки і технології (Гуанчжоу);

(8) Ченцзе Ван, Лабораторія Tencent Youtu.

:::


:::info Ця стаття доступна на arxiv за ліцензією CC BY-NC-ND 4.0 Deed (Attribution-Noncommercial-Noderivs 4.0 International).

:::

\

Відмова від відповідальності: статті, опубліковані на цьому сайті, взяті з відкритих джерел і надаються виключно для інформаційних цілей. Вони не обов'язково відображають погляди MEXC. Всі права залишаються за авторами оригінальних статей. Якщо ви вважаєте, що будь-який контент порушує права третіх осіб, будь ласка, зверніться за адресою service@support.mexc.com для його видалення. MEXC не дає жодних гарантій щодо точності, повноти або своєчасності вмісту і не несе відповідальності за будь-які дії, вчинені на основі наданої інформації. Вміст не є фінансовою, юридичною або іншою професійною порадою і не повинен розглядатися як рекомендація або схвалення з боку MEXC.

Вам також може сподобатися