摘要和1 引言
相关工作
问题设定
方法论
4.1. 决策边界感知蒸馏
4.2. 知识巩固
实验结果和5.1. 实验设置
5.2. 与最先进方法的比较
5.3. 消融研究
结论和未来工作及参考文献
\
补充材料
如图2(a)所示,新观察中概念漂移的出现导致现有模型失效的外部样本的出现。新的IIL必须扩大决策边界以包含这些外部样本,同时避免在旧边界上发生灾难性遗忘(CF)。传统的基于知识蒸馏的方法依赖于一些保留的样例[22]或辅助数据[33, 34]来抵抗CF。然而,在所提出的IIL设置中,除了新的观察外,我们无法访问任何旧数据。如果不向模型添加新参数,基于这些新观察的蒸馏与学习新知识相冲突。为了在学习和不遗忘之间取得平衡,我们提出了一种不需要旧数据的决策边界感知蒸馏方法。在学习过程中,学生学到的新知识会间歇性地巩固回教师模型,这带来了更好的泛化能力,是该领域的先驱尝试。
\ 
\
:::info 作者:
(1) 聂强,香港科技大学(广州);
(2) 付伟福,腾讯优图实验室;
(3) 林宇欢,腾讯优图实验室;
(4) 李佳林,腾讯优图实验室;
(5) 周一峰,腾讯优图实验室;
(6) 刘勇,腾讯优图实验室;
(7) 聂强,香港科技大学(广州);
(8) 王成杰,腾讯优图实验室。
:::
:::info 本论文可在arxiv上获取,遵循CC BY-NC-ND 4.0 Deed(署名-非商业性使用-禁止演绎4.0国际)许可协议。
:::
\


