基于多示例学习的常见分类算法有哪些?TerraSAR-X数据 卫星制图 水文遥感

分享到    浏览:716

基于多示例学习的常见分类算法有哪些?

 

 (1)多样性密度

MaronLozano-prerz1998年提出了多样性密度( DD,diverse density )算法。多样性密度算法中,将候选分子的每个示例抽象成一个 n维空间的特征向量,随着分子形状的改变,这些特征向量对应的点在”维空间形成一个轨迹。如果一个候选分子被标记为正,那么这些轨迹中至少有一条轨迹能够以有效的形状结构与目标蛋白质分子紧密连接;反之,被标记为负的候选分子不包含这样的轨迹。也就是说,若属性空间中某个区域多样性密度大,满足每一一个正包至少有一个示例的轨迹在该区域内或者距离该区域越近,则该区域附近出现的正包数越多,而反包示例距离该区域越远。

(2) Citation-KNN算法

2000年,Wang等扩展了消极学习算法K近邻( k-nearest neighbor)算法来解决多示例学习问题,提出了citation-KNN算法。该算法是一种最近邻算法,借用了文献中的引用( citation )和参考( reference )的概念。因此在对某包的分析中,不仅考虑了该包的相邻包,同样考虑把该包当作相邻的包。对于任何最近邻形式的算法,最关键的是对不同对象之间距离的度量定义。在citation-KNN算法中,采用豪斯多夫距离( Hausdoeff distance )来度量包与包之间的距离,这就区别于标准的K近邻算法的立足于度量示例之间的距离。

(3) BP-MIP算法

2002年,南京大学Zhou等针对人工神经网络9是种非线性学习方法,具有分类效率高、顽健性好的特点,设计了一个新颖的多示例误差函数,将人工神经网络应用于多示例学习中,提出了多示例神经网络( BP-MIP,back propagation-multiple instance learning )算法。BP-MIP算法通过比较网络的实际输出和目标输出计算出一个误差,将该误差反馈到输入层,从而修正网络的权值等参数信息,得到多示例神经网络算法BP-MIP

(4) MI-SVM算法和mi-SVM算法

基于支持向量机的多示例学习算法大体可以分为2:基于样本的多示例学习方法(mi-SVM)和基于包的多示例学习方法( MI-SVM)

基于样本的支持向量机算法mi-SVM要为示例确定一个最优超平面margin,其目的是保证正半空间里,每个正包至少包含一个正示例,所有的负包都在负半空间里,然后用SVM设计分类器。mi-SVM方法的最大化最优超平面;margin是基于包中单个样本实现的。而基于包的支持向量机算法MI.SVM则是从每个正包中选出一个最正的样本作为正祥本,然后把这些样本和其他负包中的样本放在一起,最后用SVM设计分类器。MI-SVM方法的最大化最优超平面margin是基于单个包实现的。