Skip to content

Latest commit

 

History

History
429 lines (318 loc) · 17.8 KB

semi-supervised-learning-with-label-propagation.md

File metadata and controls

429 lines (318 loc) · 17.8 KB

使用标签传播的半监督学习

原文:https://machinelearningmastery.com/semi-supervised-learning-with-label-propagation/

半监督学习是指试图同时利用已标记和未标记训练数据的算法。

半监督学习算法不像监督学习算法那样只能从有标签的训练数据中学习。

半监督学习的一种流行方法是创建一个连接训练数据集中的示例的图,并通过图的边缘传播已知的标签来标记未标记的示例。这种半监督学习方法的一个例子是用于分类预测建模的标签传播算法

在本教程中,您将发现如何将标签传播算法应用于半监督学习分类数据集。

完成本教程后,您将知道:

  • 标签传播半监督学习算法如何工作的直觉。
  • 如何使用监督学习算法开发半监督分类数据集并建立表现基线。
  • 如何开发和评估标签传播算法,并使用模型输出来训练监督学习算法。

我们开始吧。

Semi-Supervised Learning With Label Propagation

带标签传播的半监督学习 图片由the blues dud提供,保留部分权利。

教程概述

本教程分为三个部分;它们是:

  1. 标签传播算法
  2. 半监督分类数据集
  3. 半监督学习中的标签传播

标签传播算法

标签传播是一种半监督学习算法。

该算法是在 2002 年朱晓金和邹斌·盖拉马尼的技术报告中提出的,该报告的标题为“利用标签传播从有标签和无标签数据中学习”

该算法的直觉是创建了一个图形,该图形根据距离连接数据集中的所有示例(行),例如欧几里德距离。然后,图中的节点具有基于图中邻近连接的示例的标签或标签分布的标签软标签或标签分布。

许多半监督学习算法依赖于由标记和未标记的例子所诱导的数据的几何形状来改进仅使用标记数据的监督方法。这种几何形状自然可以用经验图 g = (V,E)来表示,其中节点 V = {1,…,n}表示训练数据,边 E 表示它们之间的相似性

—第 193 页,半监督学习,2006。

传播指的是标签被分配给图中的节点并沿着图的边传播到连接的节点的迭代性质。

这个过程有时被称为标签传播,因为它将标签从已标记的顶点(固定的)通过边逐渐“传播”到所有未标记的顶点。

—第 48 页,半监督学习介绍,2009。

该过程重复固定次数的迭代,以加强分配给未标记示例的标签。

从用已知标签(1 或 1)标记的节点 1、2、…、l 和用 0 标记的节点 l + 1、…、n 开始,每个节点开始将其标签传播给其邻居,并且重复该过程直到收敛。

—第 194 页,半监督学习,2006。

现在我们已经熟悉了标签传播算法,让我们看看如何在项目中使用它。首先,我们必须定义一个半监督分类数据集。

半监督分类数据集

在本节中,我们将为半监督学习定义一个数据集,并在该数据集上建立一个表现基线。

首先,我们可以使用make _ classion()函数定义一个合成分类数据集。

我们将用两个类(二进制分类)和两个输入变量以及 1000 个示例来定义数据集。

...
# define dataset
X, y = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, random_state=1)

接下来,我们将数据集分割成训练数据集和测试数据集,分割比例为 50-50(例如,每组 500 行)。

...
# split into train and test
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.50, random_state=1, stratify=y)

最后,我们将训练数据集再次分成两部分,一部分有标签,另一部分我们假装没有标签。

...
# split train into labeled and unlabeled
X_train_lab, X_test_unlab, y_train_lab, y_test_unlab = train_test_split(X_train, y_train, test_size=0.50, random_state=1, stratify=y_train)

将这些联系在一起,下面列出了准备半监督学习数据集的完整示例。

# prepare semi-supervised learning dataset
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
# define dataset
X, y = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, random_state=1)
# split into train and test
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.50, random_state=1, stratify=y)
# split train into labeled and unlabeled
X_train_lab, X_test_unlab, y_train_lab, y_test_unlab = train_test_split(X_train, y_train, test_size=0.50, random_state=1, stratify=y_train)
# summarize training set size
print('Labeled Train Set:', X_train_lab.shape, y_train_lab.shape)
print('Unlabeled Train Set:', X_test_unlab.shape, y_test_unlab.shape)
# summarize test set size
print('Test Set:', X_test.shape, y_test.shape)

运行该示例准备数据集,然后总结三个部分的形状。

结果证实,我们有一个 500 行的测试数据集、一个 250 行的标记训练数据集和 250 行的未标记数据。

Labeled Train Set: (250, 2) (250,)
Unlabeled Train Set: (250, 2) (250,)
Test Set: (500, 2) (500,)

一个有监督的学习算法只有 250 行来训练一个模型。

半监督学习算法将具有 250 个标记行以及 250 个未标记行,这些行可以以多种方式用于改进标记的训练数据集。

接下来,我们可以使用仅适用于标记训练数据的监督学习算法,在半监督学习数据集上建立表现基线。

这一点很重要,因为我们期望半监督学习算法的表现优于仅适用于标记数据的监督学习算法。如果不是这样,那么半监督学习算法就没有技巧。

在这种情况下,我们将使用逻辑回归算法来拟合训练数据集的标记部分。

...
# define model
model = LogisticRegression()
# fit model on labeled dataset
model.fit(X_train_lab, y_train_lab)

然后,该模型可用于对整个搁置测试数据集进行预测,并使用分类精确率进行评估。

...
# make predictions on hold out test set
yhat = model.predict(X_test)
# calculate score for test set
score = accuracy_score(y_test, yhat)
# summarize score
print('Accuracy: %.3f' % (score*100))

将这些联系在一起,下面列出了在半监督学习数据集上评估监督学习算法的完整示例。

# baseline performance on the semi-supervised learning dataset
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
from sklearn.linear_model import LogisticRegression
# define dataset
X, y = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, random_state=1)
# split into train and test
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.50, random_state=1, stratify=y)
# split train into labeled and unlabeled
X_train_lab, X_test_unlab, y_train_lab, y_test_unlab = train_test_split(X_train, y_train, test_size=0.50, random_state=1, stratify=y_train)
# define model
model = LogisticRegression()
# fit model on labeled dataset
model.fit(X_train_lab, y_train_lab)
# make predictions on hold out test set
yhat = model.predict(X_test)
# calculate score for test set
score = accuracy_score(y_test, yhat)
# summarize score
print('Accuracy: %.3f' % (score*100))

运行该算法使模型适合标记的训练数据集,并在保持数据集上对其进行评估,并打印分类精确率。

:考虑到算法或评估程序的随机性,或数值精确率的差异,您的结果可能会有所不同。考虑运行该示例几次,并比较平均结果。

在这种情况下,我们可以看到该算法实现了大约 84.8%的分类准确率。

我们期望一种有效的半监督学习算法能获得比这更好的精确率。

Accuracy: 84.800

接下来,让我们探索如何将标签传播算法应用于数据集。

半监督学习中的标签传播

标签传播算法可通过标签传播类在 Sklearn Python 机器学习库中获得。

通过调用 fit() 函数,该模型可以像任何其他分类模型一样进行拟合,并通过 predict() 函数用于对新数据进行预测。

...
# define model
model = LabelPropagation()
# fit model on training dataset
model.fit(..., ...)
# make predictions on hold out test set
yhat = model.predict(...)

重要的是,提供给 fit() 函数的训练数据集必须包括整数编码的已标记示例(按照正常情况)和标记为-1 的未标记示例。

然后,作为拟合模型的一部分,模型将确定未标记示例的标签。

模型拟合后,训练数据集中已标记和未标记数据的估计标签可通过标签传播类上的“转导 _ ”属性获得。

...
# get labels for entire training dataset data
tran_labels = model.transduction_

现在我们已经熟悉了如何在 Sklearn 中使用标签传播算法,让我们看看如何将其应用于我们的半监督学习数据集。

首先,我们必须准备训练数据集。

我们可以将训练数据集的输入数据连接成一个数组。

...
# create the training dataset input
X_train_mixed = concatenate((X_train_lab, X_test_unlab))

然后,我们可以为训练数据集中未标记部分的每一行创建一个-1 值(未标记)的列表。

...
# create "no label" for unlabeled data
nolabel = [-1 for _ in range(len(y_test_unlab))]

然后,该列表可以与来自训练数据集标记部分的标签连接起来,以对应于训练数据集的输入数组。

...
# recombine training dataset labels
y_train_mixed = concatenate((y_train_lab, nolabel))

我们现在可以在整个训练数据集上训练标签传播模型。

...
# define model
model = LabelPropagation()
# fit model on training dataset
model.fit(X_train_mixed, y_train_mixed)

接下来,我们可以使用该模型对保持数据集进行预测,并使用分类精确率评估该模型。

...
# make predictions on hold out test set
yhat = model.predict(X_test)
# calculate score for test set
score = accuracy_score(y_test, yhat)
# summarize score
print('Accuracy: %.3f' % (score*100))

将这些联系在一起,下面列出了在半监督学习数据集上评估标签传播的完整示例。

# evaluate label propagation on the semi-supervised learning dataset
from numpy import concatenate
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
from sklearn.semi_supervised import LabelPropagation
# define dataset
X, y = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, random_state=1)
# split into train and test
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.50, random_state=1, stratify=y)
# split train into labeled and unlabeled
X_train_lab, X_test_unlab, y_train_lab, y_test_unlab = train_test_split(X_train, y_train, test_size=0.50, random_state=1, stratify=y_train)
# create the training dataset input
X_train_mixed = concatenate((X_train_lab, X_test_unlab))
# create "no label" for unlabeled data
nolabel = [-1 for _ in range(len(y_test_unlab))]
# recombine training dataset labels
y_train_mixed = concatenate((y_train_lab, nolabel))
# define model
model = LabelPropagation()
# fit model on training dataset
model.fit(X_train_mixed, y_train_mixed)
# make predictions on hold out test set
yhat = model.predict(X_test)
# calculate score for test set
score = accuracy_score(y_test, yhat)
# summarize score
print('Accuracy: %.3f' % (score*100))

运行该算法使模型适合整个训练数据集,并在保持数据集上对其进行评估,并打印分类精确率。

:考虑到算法或评估程序的随机性,或数值精确率的差异,您的结果可能会有所不同。考虑运行该示例几次,并比较平均结果。

在这种情况下,我们可以看到标签传播模型实现了大约 85.6%的分类准确率,这略高于仅在实现了大约 84.8%准确率的标签训练数据集上的逻辑回归拟合。

Accuracy: 85.600

目前为止,一切顺利。

对于半监督模型,我们可以使用的另一种方法是获取训练数据集的估计标签,并拟合监督学习模型。

回想一下,我们可以从标签传播模型中检索整个训练数据集的标签,如下所示:

...
# get labels for entire training dataset data
tran_labels = model.transduction_

然后,我们可以使用这些标签以及所有输入数据来训练和评估监督学习算法,例如逻辑回归模型。

希望适合整个训练数据集的监督学习模型将获得比单独的半监督学习模型更好的表现。

...
# define supervised learning model
model2 = LogisticRegression()
# fit supervised learning model on entire training dataset
model2.fit(X_train_mixed, tran_labels)
# make predictions on hold out test set
yhat = model2.predict(X_test)
# calculate score for test set
score = accuracy_score(y_test, yhat)
# summarize score
print('Accuracy: %.3f' % (score*100))

将这些联系在一起,下面列出了使用估计的训练集标签来训练和评估监督学习模型的完整示例。

# evaluate logistic regression fit on label propagation for semi-supervised learning
from numpy import concatenate
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
from sklearn.semi_supervised import LabelPropagation
from sklearn.linear_model import LogisticRegression
# define dataset
X, y = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, random_state=1)
# split into train and test
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.50, random_state=1, stratify=y)
# split train into labeled and unlabeled
X_train_lab, X_test_unlab, y_train_lab, y_test_unlab = train_test_split(X_train, y_train, test_size=0.50, random_state=1, stratify=y_train)
# create the training dataset input
X_train_mixed = concatenate((X_train_lab, X_test_unlab))
# create "no label" for unlabeled data
nolabel = [-1 for _ in range(len(y_test_unlab))]
# recombine training dataset labels
y_train_mixed = concatenate((y_train_lab, nolabel))
# define model
model = LabelPropagation()
# fit model on training dataset
model.fit(X_train_mixed, y_train_mixed)
# get labels for entire training dataset data
tran_labels = model.transduction_
# define supervised learning model
model2 = LogisticRegression()
# fit supervised learning model on entire training dataset
model2.fit(X_train_mixed, tran_labels)
# make predictions on hold out test set
yhat = model2.predict(X_test)
# calculate score for test set
score = accuracy_score(y_test, yhat)
# summarize score
print('Accuracy: %.3f' % (score*100))

运行该算法将半监督模型拟合到整个训练数据集上,然后将监督学习模型拟合到具有推断标签的整个训练数据集上,并在保持数据集上对其进行评估,打印分类精确率。

:考虑到算法或评估程序的随机性,或数值精确率的差异,您的结果可能会有所不同。考虑运行该示例几次,并比较平均结果。

在这种情况下,我们可以看到,半监督模型跟随监督模型的这种分层方法在保持数据集上实现了大约 86.2%的分类精确率,甚至优于单独使用的半监督学习,后者实现了大约 85.6%的精确率。

Accuracy: 86.200

通过调整 LabelPropagation 模型的超参数,能达到更好的效果吗? 让我知道你在下面的评论中发现了什么。

进一步阅读

如果您想更深入地了解这个主题,本节将提供更多资源。

报纸

蜜蜂

文章

摘要

在本教程中,您发现了如何将标签传播算法应用于半监督学习分类数据集。

具体来说,您了解到:

  • 标签传播半监督学习算法如何工作的直觉。
  • 如何使用监督学习算法开发半监督分类数据集并建立表现基线。
  • 如何开发和评估标签传播算法,并使用模型输出来训练监督学习算法。

你有什么问题吗? 在下面的评论中提问,我会尽力回答。