百科问答小站 logo
百科问答小站 font logo



有谁给解释一下流形以及流形正则化? 第1页

  

user avatar   li-eta 网友的相关建议: 
      

看你标签有『机器学习』,那看来是问机器学习中的流形。

机器学习中的流形借用了数学中流形的概念,当机器学习并不真的去研究拓扑。更多的时候,机器学习中的流形是指数据分布在高维空间中的一个低维度的流形上面,意思就是数据本质上不是高维度的(所以处理起来不会像真正的高维数据一样困难)。如图:

数据看似分布在一个三维空间中,而实际上则是分布在一个卷曲的二维平面上,也就是数据的真实分布其实只有二维。直接在原始数据的高维空间中采用机器学习中的分类/回归方法,往往会面对高维度带来的模型高复杂度问题,导致模型的泛化能力下降,所以如果能够讲数据合理得展开在低维空间中,那么能够大大简化模型复杂度。

很多真实数据都具备类似的性质,比如:同一张正面人脸在不同光照环境下的图像集。

流形的概念很早就被引入到机器学习中,大量的降维方法都尝试从高维空间中复原出低维数据(也就是把上面这种三维卷曲摊开,放在二维平面上),包括PCA(Principal Components Analysis)、LLE(Locally Linear Embedding)、MDS(Multidimensional Scaling)、Isomap、KPCA等。

回到问题中来,『流形正则化』其实就是在机器学习问题中的正则化项中加入和流形相关的项,利用数据中的几何结构,起到半监督的作用,比如:两个样本在流形中距离相近,那么他们的label也应该一样或相似。

参考paper: Manifold Regularization: A Geometric Framework for Learning from Labeled and Unlabeled Examples

一个一般的机器学习有监督优化问题可以形式化成这样(式子都来自于上面的参考):

其中第一项是经验误差,第二项是正则化项(RKHS表示),而加入了流形正则化的优化问题可以形式化成:

其实就是多了最后一项,作用是约束 f 的输出使得输出的y符合样本x的分布所代表的几何结构。约束 f 输出的项可以是各种各样的,比如常见的graph regularization:

其中 W_ij 表示i和j两个样本之间在流形上的近似度。

更加详细的细节(推导、解释以及这种优化目标对应的representor theorem的扩展)都在参考paper中。

应用中这么几个作用:

1. 利用样本的空间分布信息

2. 给有监督模型加流形正则化,可以尽可能多得利用无监督的数据,使得模型转化为半监督模型




  

相关话题

  《JoJo的奇妙冒险 2》中大结局里卡兹被岩浆喷上外太空是否科学? 
  喜欢学数学是一种怎样的体验? 
  黎曼 ζ 函数为什么要那么解析延拓? 
  在统计学领域有哪些经典奠基性的论文? 
  高手大概率是谦虚还是傲慢的? 
  甲有101个硬币,乙有100个硬币,两人随机撒在地面上,甲比乙正面朝上多的概率是多少? 
  如何直观地理解「共轭」这个概念? 
  加州大学伯克利分校为何能连续孵化出 Mesos,Spark,Alluxio,Ray 等重量级开源项目? 
  设σ(n)是n的所有正因数之和,如何证明存在无数个正整数n使得σ(n)是完全平方数? 
  高次韦达定理是什么?如何证明? 

前一个讨论
飞机很重地着陆,是飞行员操作失误吗?
下一个讨论
飞行纪录本(Pilot Log)丢了怎么办?





© 2024-11-21 - tinynew.org. All Rights Reserved.
© 2024-11-21 - tinynew.org. 保留所有权利