Esta secção define um novo e prático problema de Aprendizagem Incremental por Instância (IIL) focado na promoção de modelos com boa relação custo-benefício em sistemas implementados.Esta secção define um novo e prático problema de Aprendizagem Incremental por Instância (IIL) focado na promoção de modelos com boa relação custo-benefício em sistemas implementados.

Nova Configuração IIL: Melhorando Modelos Implementados Apenas com Novos Dados

2025/11/05 23:00

Resumo e 1 Introdução

  1. Trabalhos relacionados

  2. Definição do problema

  3. Metodologia

    4.1. Destilação consciente da fronteira de decisão

    4.2. Consolidação de conhecimento

  4. Resultados experimentais e 5.1. Configuração do Experimento

    5.2. Comparação com métodos SOTA

    5.3. Estudo de ablação

  5. Conclusão e trabalho futuro e Referências

    \

Material Suplementar

  1. Detalhes da análise teórica sobre o mecanismo KCEMA em IIL
  2. Visão geral do algoritmo
  3. Detalhes do conjunto de dados
  4. Detalhes de implementação
  5. Visualização de imagens de entrada com poeira
  6. Mais resultados experimentais

3. Definição do problema

A ilustração da configuração IIL proposta é mostrada na Fig. 1. Como pode ser visto, os dados são gerados continuamente e de forma imprevisível no fluxo de dados. Geralmente em aplicações reais, as pessoas tendem a coletar dados suficientes primeiro e treinar um modelo forte M0 para implantação. Não importa quão forte seja o modelo, ele inevitavelmente encontrará dados fora da distribuição e falhará neles. Estes casos de falha e outras novas observações de baixa pontuação serão anotados para treinar o modelo de tempos em tempos. Retreinar o modelo com todos os dados acumulados a cada vez leva a custos cada vez mais altos em tempo e recursos. Portanto, o novo IIL visa melhorar o modelo existente apenas com os novos dados a cada vez.

\

\ Figura 2. Fronteiras de decisão (DB): (a) DB aprendidas a partir de dados antigos e novos, respectivamente. Em relação à DB antiga, os novos dados podem ser categorizados em amostras internas e externas. (b) DB ideal treinando conjuntamente nos dados antigos e novos. (c) ajuste fino do modelo nos novos dados com rótulos one-hot sofre com CF. (d) aprendizagem com destilação em exemplares protótipos causa overfitting para esses exemplares e colapso da DB. (e) a DB alcançada usando nossa destilação consciente da fronteira de decisão (DBD).

\

:::info Autores:

(1) Qiang Nie, Universidade de Ciência e Tecnologia de Hong Kong (Guangzhou);

(2) Weifu Fu, Tencent Youtu Lab;

(3) Yuhuan Lin, Tencent Youtu Lab;

(4) Jialin Li, Tencent Youtu Lab;

(5) Yifeng Zhou, Tencent Youtu Lab;

(6) Yong Liu, Tencent Youtu Lab;

(7) Qiang Nie, Universidade de Ciência e Tecnologia de Hong Kong (Guangzhou);

(8) Chengjie Wang, Tencent Youtu Lab.

:::


:::info Este artigo está disponível no arxiv sob a licença CC BY-NC-ND 4.0 Deed (Atribuição-NãoComercial-SemDerivações 4.0 Internacional).

:::

\

Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail service@support.mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.