Este artículo presenta una nueva metodología de Destilación Consciente de los Límites de Decisión para el Aprendizaje Incremental de Instancias que no requiere acceso a datos antiguos.Este artículo presenta una nueva metodología de Destilación Consciente de los Límites de Decisión para el Aprendizaje Incremental de Instancias que no requiere acceso a datos antiguos.

Síntesis de Imágenes Médicas: S-CycleGAN para RUSS y Segmentación

2025/11/05 23:30

Abstracto y 1 Introducción

  1. Trabajos relacionados

  2. Configuración del problema

  3. Metodología

    4.1. Destilación consciente del límite de decisión

    4.2. Consolidación de conocimiento

  4. Resultados experimentales y 5.1. Configuración del experimento

    5.2. Comparación con métodos SOTA

    5.3. Estudio de ablación

  5. Conclusión y trabajo futuro y Referencias

    \

Material Suplementario

  1. Detalles del análisis teórico sobre el mecanismo KCEMA en IIL
  2. Visión general del algoritmo
  3. Detalles del conjunto de datos
  4. Detalles de implementación
  5. Visualización de imágenes de entrada con polvo
  6. Más resultados experimentales

4. Metodología

Como se muestra en la Fig. 2 (a), la aparición de deriva conceptual en nuevas observaciones conduce a la emergencia de muestras externas en las que el modelo existente falla. El nuevo IIL tiene que ampliar el límite de decisión a estas muestras externas, así como evitar el olvido catastrófico (CF) en el límite antiguo. Los métodos convencionales basados en destilación de conocimiento dependen de algunos ejemplares preservados [22] o datos auxiliares [33, 34] para resistir el CF. Sin embargo, en la configuración IIL propuesta, no tenemos acceso a ningún dato antiguo aparte de las nuevas observaciones. La destilación basada en estas nuevas observaciones entra en conflicto con el aprendizaje de nuevo conocimiento si no se añaden nuevos parámetros al modelo. Para lograr un equilibrio entre aprender y no olvidar, proponemos un método de destilación consciente del límite de decisión que no requiere datos antiguos. Durante el aprendizaje, el nuevo conocimiento aprendido por el estudiante se consolida intermitentemente de vuelta al modelo del profesor, lo que proporciona una mejor generalización y es un intento pionero en esta área.

\ Figura 3. Comparación entre (a) método previo basado en destilación que infiere con el modelo estudiante (S) y (b) la destilación consciente del límite de decisión propuesta (DBD) con consolidación de conocimiento (KC). Usamos el modelo profesor (T) para inferencia.

\

:::info Autores:

(1) Qiang Nie, Universidad de Ciencia y Tecnología de Hong Kong (Guangzhou);

(2) Weifu Fu, Tencent Youtu Lab;

(3) Yuhuan Lin, Tencent Youtu Lab;

(4) Jialin Li, Tencent Youtu Lab;

(5) Yifeng Zhou, Tencent Youtu Lab;

(6) Yong Liu, Tencent Youtu Lab;

(7) Qiang Nie, Universidad de Ciencia y Tecnología de Hong Kong (Guangzhou);

(8) Chengjie Wang, Tencent Youtu Lab.

:::


:::info Este artículo está disponible en arxiv bajo la licencia CC BY-NC-ND 4.0 Deed (Atribución-NoComercial-SinDerivadas 4.0 Internacional).

:::

\

Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.