Dieser Abschnitt definiert eine neue, praktische Problemstellung des instanzinkrementellen Lernens (IIL), die sich auf kosteneffektive Modellförderung in eingesetzten Systemen konzentriert.Dieser Abschnitt definiert eine neue, praktische Problemstellung des instanzinkrementellen Lernens (IIL), die sich auf kosteneffektive Modellförderung in eingesetzten Systemen konzentriert.

Neue IIL-Einstellung: Verbesserung eingesetzter Modelle nur mit neuen Daten

2025/11/05 23:00

Abstrakt und 1 Einleitung

  1. Verwandte Arbeiten

  2. Problemstellung

  3. Methodik

    4.1. Entscheidungsgrenze-bewusste Destillation

    4.2. Wissenskonsolidierung

  4. Experimentelle Ergebnisse und 5.1. Versuchsaufbau

    5.2. Vergleich mit SOTA-Methoden

    5.3. Ablationsstudie

  5. Schlussfolgerung und zukünftige Arbeit und Referenzen

    \

Zusatzmaterial

  1. Details der theoretischen Analyse des KCEMA-Mechanismus in IIL
  2. Algorithmusübersicht
  3. Datensatzdetails
  4. Implementierungsdetails
  5. Visualisierung von verstaubten Eingabebildern
  6. Weitere experimentelle Ergebnisse

3. Problemstellung

Die Illustration der vorgeschlagenen IIL-Einstellung ist in Abb. 1 dargestellt. Wie zu sehen ist, werden Daten kontinuierlich und unvorhersehbar im Datenstrom generiert. In realen Anwendungen neigen Menschen dazu, zuerst genügend Daten zu sammeln und ein starkes Modell M0 für den Einsatz zu trainieren. Unabhängig davon, wie stark das Modell ist, wird es unweigerlich auf Out-of-Distribution-Daten stoßen und daran scheitern. Diese fehlgeschlagenen Fälle und andere neue Beobachtungen mit niedrigem Score werden von Zeit zu Zeit annotiert, um das Modell zu trainieren. Das Neutraining des Modells mit allen kumulierten Daten führt jedes Mal zu höheren Zeit- und Ressourcenkosten. Daher zielt das neue IIL darauf ab, das bestehende Modell jedes Mal nur mit den neuen Daten zu verbessern.

\

\ Abbildung 2. Entscheidungsgrenzen (DB): (a) DB, die jeweils aus alten Daten und neuen Daten gelernt wurden. In Bezug auf die alte DB können neue Daten in innere Proben und äußere Proben kategorisiert werden. (b) ideale DB durch gemeinsames Training mit den alten und neuen Daten. (c) Feinabstimmung des Modells auf die neuen Daten mit One-Hot-Labels leidet unter CF. (d) Lernen mit Destillation auf Prototyp-Exemplaren führt zu Überanpassung an diese Exemplare und DB-Kollaps. (e) die DB, die mit unserer entscheidungsgrenze-bewussten Destillation (DBD) erreicht wurde.

\

:::info Autoren:

(1) Qiang Nie, Hong Kong University of Science and Technology (Guangzhou);

(2) Weifu Fu, Tencent Youtu Lab;

(3) Yuhuan Lin, Tencent Youtu Lab;

(4) Jialin Li, Tencent Youtu Lab;

(5) Yifeng Zhou, Tencent Youtu Lab;

(6) Yong Liu, Tencent Youtu Lab;

(7) Qiang Nie, Hong Kong University of Science and Technology (Guangzhou);

(8) Chengjie Wang, Tencent Youtu Lab.

:::


:::info Dieses Paper ist auf arxiv verfügbar unter der CC BY-NC-ND 4.0 Deed (Attribution-Noncommercial-Noderivs 4.0 International) Lizenz.

:::

\

Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an service@support.mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.