Scikit-Learn Cheat Sheet:Python机器学习

scikit-learn

一个方便的 scikit-learn 备忘录,用于使用 Python 进行机器学习,包括代码示例。

大多数使用 Python 学习数据科学的人肯定已经听说过 scikit-learn,开源 Python 库在统一界面的帮助下实现了各种机器学习,预处理,交叉验证和可视化算法。 

如果你还是这个领域的新手,你应该意识到机器学习,以及这个 Python 库,都属于每个有抱负的数据科学家必须知道的。 

这就是为什么 DataCamp 已经 scikit-learn 为那些已经开始学习 Python 包的人创建了一个备忘录,但仍然需要一个方便的参考表。或者,如果您仍然不知道如何 scikit-learn 工作,这台机器学习备忘录可能会派上用场,以便快速了解入门时需要了解的基础知识。 

无论哪种方式,我们都确信您在解决机器学习问题时会发现它很有用!  

这个 scikit-learn备忘录将向您介绍成功实现机器学习算法所需的基本步骤:您将看到如何加载数据,如何预处理它,如何创建自己的模型以适合您的模型您的数据和预测目标标签,如何验证您的模型以及如何进一步调整以提高其性能。 

Scikit-Learn Cheat Sheet

简而言之,这个备忘录将启动您的数据科学项目:借助代码示例,您可以立即创建,验证和调整您的机器学习模型。  

你还在等什么?开始的时候了!

(点击上方下载可打印版本或阅读以下在线版本。) 

Python For Data Science备忘录:Scikit-learn

Scikit-learn是一个开源Python库,使用统一的界面实现一系列机器学习,预处理,交叉验证和可视化算法。

一个基本的例子

1
2
3
4
5
6
7
8
9
10
11
12
13
>>> from sklearn import neighbors, datasets, preprocessing
>>> from sklearn.model_selection import train_test_split
>>> from sklearn.metrics import accuracy_score
>>> iris = datasets.load_iris()
>>> X, y = iris.data[:, :2], iris.target
>>> X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=33)
>>> scaler = preprocessing.StandardScaler().fit(X_train)
>>> X_train = scaler.transform(X_train)
>>> X_test = scaler.transform(X_test)
>>> knn = neighbors.KNeighborsClassifier(n_neighbors=5)
>>> knn.fit(X_train, y_train)
>>> y_pred = knn.predict(X_test)
>>> accuracy_score(y_test, y_pred)

加载数据

您的数据需要是数字并存储为NumPy数组或SciPy稀疏矩阵。其他可转换为数字数组的类型(如Pandas DataFrame)也是可以接受的。

1
2
3
4
>>> import numpy as np
>>> X = np.random.random((10,5))
>>> y = np.array(['M','M','F','F','M','F','M','M','F','F','F'])
>>> X[X < 0.7] = 0

预处理数据

标准化

1
2
3
4
>>> from sklearn.preprocessing import StandardScaler
>>> scaler = StandardScaler().fit(X_train)
>>> standardized_X = scaler.transform(X_train)
>>> standardized_X_test = scaler.transform(X_test)

正则化

1
2
3
4
>>> from sklearn.preprocessing import Normalizer
>>> scaler = Normalizer().fit(X_train)
>>> normalized_X = scaler.transform(X_train)
>>> normalized_X_test = scaler.transform(X_test)

二值化

1
2
3
>>> from sklearn.preprocessing import Binarizer
>>> binarizer = Binarizer(threshold=0.0).fit(X)
>>> binary_X = binarizer.transform(X)

编码分类功能

1
2
3
>>> from sklearn.preprocessing import LabelEncoder
>>> enc = LabelEncoder()
>>> y = enc.fit_transform(y)

输入缺失值

1
2
3
>>>from sklearn.preprocessing import Imputer
>>>imp = Imputer(missing_values=0, strategy='mean', axis=0)
>>>imp.fit_transform(X_train)

生成多项式特征

1
2
3
>>> from sklearn.preprocessing import PolynomialFeatures
>>> poly = PolynomialFeatures(5)
>>> oly.fit_transform(X)

训练和测试数据

1
2
>>> from sklearn.model_selection import train_test_split
>>> X_train, X_test, y_train, y_test = train_test_split(X,y,random_state=0)

创建你的模型

监督学习估算

线性回归

1
2
>>> from sklearn.linear_model import LinearRegression
>>> lr = LinearRegression(normalize=True)

支持向量机(SVM)

1
2
>>> from sklearn.svm import SVC
>>> svc = SVC(kernel='linear')

朴素贝叶斯

1
2
>>> from sklearn.naive_bayes import GaussianNB
>>> gnb = GaussianNB()

K-近邻算法(KNN)

1
2
>>> from sklearn import neighbors
>>> knn = neighbors.KNeighborsClassifier(n_neighbors=5)

无监督学习估算器

主成分分析(PCA)

1
2
>>> from sklearn.decomposition import PCA
>>> pca = PCA(n_components=0.95)

K均值聚类算法(K-Means)

1
2
>>> from sklearn.cluster import KMeans
>>> k_means = KMeans(n_clusters=3, random_state=0)

模型拟合

监督学习

1
2
3
>>> lr.fit(X, y)
>>> knn.fit(X_train, y_train)
>>> svc.fit(X_train, y_train)

无监督学习

1
2
>>> k_means.fit(X_train)
>>> pca_model = pca.fit_transform(X_train)

预测

监督估算师

1
>>> y_pred = svc.predict(np.random.random((2,5)))
1
>>> y_pred = lr.predict(X_test)
1
>>> y_pred = knn.predict_proba(X_test))

无监督估计

1
>>> y_pred = k_means.predict(X_test)

评估您的模型的性能

分类指标

准确度分数

1
2
3
>>> knn.score(X_test, y_test)
>>> from sklearn.metrics import accuracy_score
>>> accuracy_score(y_test, y_pred)

分类报告

1
2
>>> from sklearn.metrics import classification_report
>>> print(classification_report(y_test, y_pred)))

混淆矩阵

1
2
>>> from sklearn.metrics import confusion_matrix
>>> print(confusion_matrix(y_test, y_pred)))

回归指标

平均绝对误差

1
2
3
>>> from sklearn.metrics import mean_absolute_error
>>> y_true = [3, -0.5, 2])
>>> mean_absolute_error(y_true, y_pred))

均方误差

1
2
>>> from sklearn.metrics import mean_squared_error
>>> mean_squared_error(y_test, y_pred))

2 score

1
2
>>> from sklearn.metrics import r2_score
>>> r2_score(y_true, y_pred))

群集指标

调整后的兰德指数

1
2
>>> from sklearn.metrics import adjusted_rand_score
>>> adjusted_rand_score(y_true, y_pred))

同质性

1
2
>>> from sklearn.metrics import homogeneity_score
>>> homogeneity_score(y_true, y_pred))

V-措施

1
2
>>> from sklearn.metrics import v_measure_score
>>> metrics.v_measure_score(y_true, y_pred))

交叉验证

1
2
>>> print(cross_val_score(knn, X_train, y_train, cv=4))
>>> print(cross_val_score(lr, X, y, cv=2))

调整你的模型

网格搜索

1
>>> from sklearn.grid_search import GridSearchCV
1
>>> params = {"n_neighbors": np.arange(1,3), "metric": ["euclidean", "cityblock"]}
1
>>> grid = GridSearchCV(estimator=knn,param_grid=params)
1
>>> grid.fit(X_train, y_train)
1
>>> print(grid.best_score_)
1
>>> print(grid.best_estimator_.n_neighbors)

随机参数优化

1
>>> from sklearn.grid_search import RandomizedSearchCV
1
>>> params = {"n_neighbors": range(1,5), "weights": ["uniform", "distance"]}
1
2
3
4
5
>>> rsearch = RandomizedSearchCV(estimator=knn,
param_distributions=params,
cv=4,
n_iter=8,
random_state=5)
1
>>> rsearch.fit(X_train, y_train)
1
>>> print(rsearch.best_score_)

走得更远

我们为初学者学习scikit-learn教程开始  ,您将以简单,循序渐进的方式学习如何探索手写数字数据,如何为其创建模型,如何使您的数据适合您的模型和如何预测目标值。此外,您将使用Python的数据可视化库matplotlib来可视化您的结果。

> PS:不要错过我们的Bokeh备忘录,  pandas备忘录  或数据科学的  Python备忘录

原文: https://www.datacamp.com/community/blog/scikit-learn-cheat-sheet
作者: Karlijn Willems