一个方便的 scikit-learn
备忘录,用于使用 Python
进行机器学习,包括代码示例。
大多数使用 Python
学习数据科学的人肯定已经听说过 scikit-learn
,开源 Python
库在统一界面的帮助下实现了各种机器学习,预处理,交叉验证和可视化算法。
如果你还是这个领域的新手,你应该意识到机器学习,以及这个 Python
库,都属于每个有抱负的数据科学家必须知道的。
这就是为什么 DataCamp 已经 scikit-learn
为那些已经开始学习 Python
包的人创建了一个备忘录,但仍然需要一个方便的参考表。或者,如果您仍然不知道如何 scikit-learn
工作,这台机器学习备忘录可能会派上用场,以便快速了解入门时需要了解的基础知识。
无论哪种方式,我们都确信您在解决机器学习问题时会发现它很有用!
这个 scikit-learn
备忘录将向您介绍成功实现机器学习算法所需的基本步骤:您将看到如何加载数据,如何预处理它,如何创建自己的模型以适合您的模型您的数据和预测目标标签,如何验证您的模型以及如何进一步调整以提高其性能。
简而言之,这个备忘录将启动您的数据科学项目:借助代码示例,您可以立即创建,验证和调整您的机器学习模型。
你还在等什么?开始的时候了!
(点击上方下载可打印版本或阅读以下在线版本。)
Python For Data Science备忘录:Scikit-learn
Scikit-learn是一个开源Python库,使用统一的界面实现一系列机器学习,预处理,交叉验证和可视化算法。
一个基本的例子
1 2 3 4 5 6 7 8 9 10 11 12 13
| >>> from sklearn import neighbors, datasets, preprocessing >>> from sklearn.model_selection import train_test_split >>> from sklearn.metrics import accuracy_score >>> iris = datasets.load_iris() >>> X, y = iris.data[:, :2], iris.target >>> X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=33) >>> scaler = preprocessing.StandardScaler().fit(X_train) >>> X_train = scaler.transform(X_train) >>> X_test = scaler.transform(X_test) >>> knn = neighbors.KNeighborsClassifier(n_neighbors=5) >>> knn.fit(X_train, y_train) >>> y_pred = knn.predict(X_test) >>> accuracy_score(y_test, y_pred)
|
加载数据
您的数据需要是数字并存储为NumPy数组或SciPy稀疏矩阵。其他可转换为数字数组的类型(如Pandas DataFrame)也是可以接受的。
1 2 3 4
| >>> import numpy as np >>> X = np.random.random((10,5)) >>> y = np.array(['M','M','F','F','M','F','M','M','F','F','F']) >>> X[X < 0.7] = 0
|
预处理数据
标准化
1 2 3 4
| >>> from sklearn.preprocessing import StandardScaler >>> scaler = StandardScaler().fit(X_train) >>> standardized_X = scaler.transform(X_train) >>> standardized_X_test = scaler.transform(X_test)
|
正则化
1 2 3 4
| >>> from sklearn.preprocessing import Normalizer >>> scaler = Normalizer().fit(X_train) >>> normalized_X = scaler.transform(X_train) >>> normalized_X_test = scaler.transform(X_test)
|
二值化
1 2 3
| >>> from sklearn.preprocessing import Binarizer >>> binarizer = Binarizer(threshold=0.0).fit(X) >>> binary_X = binarizer.transform(X)
|
编码分类功能
1 2 3
| >>> from sklearn.preprocessing import LabelEncoder >>> enc = LabelEncoder() >>> y = enc.fit_transform(y)
|
输入缺失值
1 2 3
| >>>from sklearn.preprocessing import Imputer >>>imp = Imputer(missing_values=0, strategy='mean', axis=0) >>>imp.fit_transform(X_train)
|
生成多项式特征
1 2 3
| >>> from sklearn.preprocessing import PolynomialFeatures >>> poly = PolynomialFeatures(5) >>> oly.fit_transform(X)
|
训练和测试数据
1 2
| >>> from sklearn.model_selection import train_test_split >>> X_train, X_test, y_train, y_test = train_test_split(X,y,random_state=0)
|
创建你的模型
监督学习估算
线性回归
1 2
| >>> from sklearn.linear_model import LinearRegression >>> lr = LinearRegression(normalize=True)
|
支持向量机(SVM)
1 2
| >>> from sklearn.svm import SVC >>> svc = SVC(kernel='linear')
|
朴素贝叶斯
1 2
| >>> from sklearn.naive_bayes import GaussianNB >>> gnb = GaussianNB()
|
K-近邻算法(KNN)
1 2
| >>> from sklearn import neighbors >>> knn = neighbors.KNeighborsClassifier(n_neighbors=5)
|
无监督学习估算器
主成分分析(PCA)
1 2
| >>> from sklearn.decomposition import PCA >>> pca = PCA(n_components=0.95)
|
K均值聚类算法(K-Means)
1 2
| >>> from sklearn.cluster import KMeans >>> k_means = KMeans(n_clusters=3, random_state=0)
|
模型拟合
监督学习
1 2 3
| >>> lr.fit(X, y) >>> knn.fit(X_train, y_train) >>> svc.fit(X_train, y_train)
|
无监督学习
1 2
| >>> k_means.fit(X_train) >>> pca_model = pca.fit_transform(X_train)
|
预测
监督估算师
1
| >>> y_pred = svc.predict(np.random.random((2,5)))
|
1
| >>> y_pred = lr.predict(X_test)
|
1
| >>> y_pred = knn.predict_proba(X_test))
|
无监督估计
1
| >>> y_pred = k_means.predict(X_test)
|
评估您的模型的性能
分类指标
准确度分数
1 2 3
| >>> knn.score(X_test, y_test) >>> from sklearn.metrics import accuracy_score >>> accuracy_score(y_test, y_pred)
|
分类报告
1 2
| >>> from sklearn.metrics import classification_report >>> print(classification_report(y_test, y_pred)))
|
混淆矩阵
1 2
| >>> from sklearn.metrics import confusion_matrix >>> print(confusion_matrix(y_test, y_pred)))
|
回归指标
平均绝对误差
1 2 3
| >>> from sklearn.metrics import mean_absolute_error >>> y_true = [3, -0.5, 2]) >>> mean_absolute_error(y_true, y_pred))
|
均方误差
1 2
| >>> from sklearn.metrics import mean_squared_error >>> mean_squared_error(y_test, y_pred))
|
R 2 score
1 2
| >>> from sklearn.metrics import r2_score >>> r2_score(y_true, y_pred))
|
群集指标
调整后的兰德指数
1 2
| >>> from sklearn.metrics import adjusted_rand_score >>> adjusted_rand_score(y_true, y_pred))
|
同质性
1 2
| >>> from sklearn.metrics import homogeneity_score >>> homogeneity_score(y_true, y_pred))
|
V-措施
1 2
| >>> from sklearn.metrics import v_measure_score >>> metrics.v_measure_score(y_true, y_pred))
|
交叉验证
1 2
| >>> print(cross_val_score(knn, X_train, y_train, cv=4)) >>> print(cross_val_score(lr, X, y, cv=2))
|
调整你的模型
网格搜索
1
| >>> from sklearn.grid_search import GridSearchCV
|
1
| >>> params = {"n_neighbors": np.arange(1,3), "metric": ["euclidean", "cityblock"]}
|
1
| >>> grid = GridSearchCV(estimator=knn,param_grid=params)
|
1
| >>> grid.fit(X_train, y_train)
|
1
| >>> print(grid.best_score_)
|
1
| >>> print(grid.best_estimator_.n_neighbors)
|
随机参数优化
1
| >>> from sklearn.grid_search import RandomizedSearchCV
|
1
| >>> params = {"n_neighbors": range(1,5), "weights": ["uniform", "distance"]}
|
1 2 3 4 5
| >>> rsearch = RandomizedSearchCV(estimator=knn, param_distributions=params, cv=4, n_iter=8, random_state=5)
|
1
| >>> rsearch.fit(X_train, y_train)
|
1
| >>> print(rsearch.best_score_)
|
走得更远
从我们为初学者学习scikit-learn教程开始 ,您将以简单,循序渐进的方式学习如何探索手写数字数据,如何为其创建模型,如何使您的数据适合您的模型和如何预测目标值。此外,您将使用Python的数据可视化库matplotlib来可视化您的结果。
> PS:不要错过我们的Bokeh备忘录, pandas备忘录 或数据科学的 Python备忘录。
原文: https://www.datacamp.com/community/blog/scikit-learn-cheat-sheet
作者: Karlijn Willems