0%

迁移学习基本概念

qrsearch2

机器学习是人工智能的一大类重要方法,也是目 前发展最迅速、效果最显著的方法。机器学习解决的是让机器自主地从数据中获取知识,从 而应用于新的问题中。迁移学习作为机器学习的一个重要分支,侧重于将已经学习过的知 识迁移应用于新的问题中。 迁移学习的核心问题是,找到新问题和原问题之间的相似性,才可以顺利地实现知识 的迁移。比如在我们一开始说的天气问题中,那些北半球的天气之所以相似,是因为它们的 地理位置相似;而南北半球的天气之所以有差异,也是因为地理位置有根本不同。

❓为什么需要迁移学习

❗传统机器学习面临的困境

  1. 大数据与少标注之间的矛盾。

机器学习模型的训练和更新,均依赖于数据的标注。然而,尽管我们可以获 取到海量的数据,这些数据往往是很初级的原始形态,很少有数据被加以正确的人工标注。 数据的标注是一个耗时且昂贵的操作,目前为止,尚未有行之有效的方式来解决这一问题。 这给机器学习和深度学习的模型训练和更新带来了挑战。反过来说,特定的领域,因为没有 足够的标定数据用来学习,使得这些领域一直不能很好的发展。

  1. 大数据与弱计算之间的矛盾

大数据,就需要大设备、强计算能力的设备来进行存储和计算。然而,大数据的大计算 能力,是” 有钱人” 才能玩得起的游戏。比如 Google,Facebook,Microsoft,这些巨无霸 公司有着雄厚的计算能力去利用这些数据训练模型。例如,ResNet 需要很长的时间进行训 练。Google TPU 也都是有钱人的才可以用得起的。 绝大多数普通用户是不可能具有这些强计算能力的。这就引发了大数据和弱计算之间 的矛盾。在这种情况下,普通人想要利用这些海量的大数据去训练模型完成自己的任务,基 本上不太可能。那么如何让普通人也能利用这些数据和模型?

  1. 普适化模型与个性化需求之间的矛盾

机器学习的目标是构建一个尽可能通用的模型,使得这个模型对于不同用户、不同设 备、不同环境、不同需求,都可以很好地进行满足。这是我们的美好愿景。这就是要尽可能地提高机器学习模型的泛化能力,使之适应不同的数据情形。基于这样的愿望,我们构建了 多种多样的普适化模型,来服务于现实应用。然而,这只能是我们竭尽全力想要做的,目前 却始终无法彻底解决的问题。人们的个性化需求五花八门,短期内根本无法用一个通用的 模型去满足。比如导航模型,可以定位及导航所有的路线。但是不同的人有不同的需求。比 如有的人喜欢走高速,有的人喜欢走偏僻小路,这就是个性化需求。并且,不同的用户,通 常都有不同的隐私需求。这也是构建应用需要着重考虑的。
所以目前的情况是,我们对于每一个通用的任务都构建了一个通用的模型。这个模型 可以解决绝大多数的公共问题。但是具体到每个个体、每个需求,都存在其唯一性和特异 性,一个普适化的通用模型根本无法满足。那么,能否将这个通用的模型加以改造和适配, 使其更好地服务于人们的个性化需求?

  1. 特定应用的需求

机器学习已经被广泛应用于现实生活中。在这些应用中,也存在着一些特定的应用,它 们面临着一些现实存在的问题。比如推荐系统的冷启动问题。一个新的推荐系统,没有足够 的用户数据,如何进行精准的推荐? 一个崭新的图片标注系统,没有足够的标签,如何进行 精准的服务?现实世界中的应用驱动着我们去开发更加便捷更加高效的机器学习方法来加 以解决。

👁‍🗨迁移学习是如何进行解决的呢?

  1. 大数据与少标注:迁移数据标注
    单纯地凭借少量的标注数据,无法准确地训练高可用度的模型。为了解决这个问题,我 们直观的想法是:多增加一些标注数据不就行了?但是不依赖于人工,如何增加标注数据?
    利用迁移学习的思想,我们可以寻找一些与目标数据相近的有标注的数据,从而利用 这些数据来构建模型,增加我们目标数据的标注。
  2. 大数据与弱计算:模型迁移
    不可能所有人都有能力利用大数据快速进行模型的训练。利用迁移学习的思想,我们 可以将那些大公司在大数据上训练好的模型,迁移到我们的任务中。针对于我们的任务进 行微调,从而我们也可以拥有在大数据上训练好的模型。更进一步,我们可以将这些模型针 对我们的任务进行自适应更新,从而取得更好的效果。
  3. 普适化模型与个性化需求:自适应学习
    为了解决个性化需求的挑战,我们利用迁移学习的思想,进行自适应的学习。考虑到不 同用户之间的相似性和差异性,我们对普适化模型进行灵活的调整,以便完成我们的任务。
  4. 特定应用的需求:相似领域知识迁移
    为了满足特定领域应用的需求,我们可以利用上述介绍过的手段,从数据和模型方法 上进行迁移学习。
    image-20210301223124770

✅与已有概念的区别与联系

  1. 迁移学习 VS 传统机器学习:
    迁移学习属于机器学习的一类,但它在如下几个方面有别于传统的机器学习

    image-20210301230620912

  2. 迁移学习 VS 多任务学习:
    多任务学习指多个相关的任务一起协同学习;迁移学习则强调知识由一个领域迁移到 另一个领域的过程。迁移是思想,多任务是其中的一个具体形式。

  3. 迁移学习 VS 终身学习:
    终身学习可以认为是序列化的多任务学习,在已经学习好若干个任务之后,面对新的 任务可以继续学习而不遗忘之前学习的任务。迁移学习则侧重于模型的迁移和共同学习。

  4. 迁移学习 VS 领域自适应:
    领域自适应问题是迁移学习的研究内容之一,它侧重于解决特征空间一致、类别空间 一致,仅特征分布不一致的问题。而迁移学习也可以解决上述内容不一致的情况。

  5. 迁移学习 VS 增量学习:
    增量学习侧重解决数据不断到来,模型不断更新的问题。迁移学习显然和其有着不同 之处。

  6. 迁移学习 VS 自我学习:
    自我学习指的是模型不断地从自身处进行更新,而迁移学习强调知识在不同的领域间 进行迁移。

  7. 迁移学习 VS 协方差漂移
    协方差漂移指数据的边缘概率分布发生变化。领域自适应研究问题解决的就是协方差 漂移现象。

💌负迁移

我们都希望迁移学习能够比较顺利地进行,我们得到的结果也是满足我们要求的,皆 大欢喜。然而,事情却并不总是那么顺利。这就引入了迁移学习中的一个负面现象,也就是 所谓的负迁移。

用我们熟悉的成语来描述:如果说成功的迁移学习是“举一反三”、“照猫画虎”,那么 负迁移则是“东施效颦”。东施已经模仿西施捂着胸口皱着眉头,为什么她还是那么丑?

要理解负迁移,首先要理解什么是迁移学习。迁移学习指的是,利用数据和领域之间存 在的相似性关系,把之前学习到的知识,应用于新的未知领域。迁移学习的核心问题是,找 到两个领域的相似性。找到了这个相似性,就可以合理地利用,从而很好地完成迁移学习任 务。比如,之前会骑自行车,要学习骑摩托车,这种相似性指的就是自行车和摩托车之间的 相似性以及骑车体验的相似性。这种相似性在我们人类看来是可以接受的。

所以,如果这个相似性找的不合理,也就是说,两个领域之间不存在相似性,或者基本 不相似,那么,就会大大损害迁移学习的效果。还是拿骑自行车来说,你要拿骑自行车的经 验来学习开汽车,这显然是不太可能的。因为自行车和汽车之间基本不存在什么相似性。所 以,这个任务基本上完不成。这时候,我们可以说出现了负迁移 (Negative Transfer)。

所以,为什么东施和西施做了一样的动作,反而变得更丑了?因为东施和西施之间压根 就不存在相似性。

负迁移指的是,在源域上学习到的知识,对于目标域上的学习产生负面作用。

产生负迁移的原因主要有:

  • 数据问题:源域和目标域压根不相似,谈何迁移?
  • 方法问题:源域和目标域是相似的,但是,迁移学习方法不够好,没找到可迁移的成 分。
    负迁移给迁移学习的研究和应用带来了负面影响。在实际应用中,找到合理的相似性, 并且选择或开发合理的迁移学习方法,能够避免负迁移现象。

最新研究成果

随着研究的深入,已经有新的研究成果在逐渐克服负迁移的影响。杨强教授团队 2015 在 数据挖掘领域顶级会议KDD上发表了传递迁移学习文章Transitive transfer learning , 提出了传递迁移学习的思想。传统迁移学习就好比是踩着一块石头过河,传递迁移学习就 好比是踩着连续的两块石头。 更进一步,杨强教授团队在 2017 年人工智能领域顶级会议 AAAI 上发表了远领域迁 移学习的文章 Distant domain transfer learning ,可以用人脸来识别飞机! 这就好比是踩着一连串石头过河。这些研究的意义在于,传统迁移学习只有两个领域足够 相似才可以完成,而当两个领域不相似时,传递迁移学习却可以利用处于这两个领域之间 的若干领域,将知识传递式的完成迁移。这个是很有意义的工作,可以视为解决负迁移的有 效思想和方法。可以预见在未来会有更多的应用前景。

image-20210301231518157

Donate comment here.

欢迎关注我的其它发布渠道