Deeplearning Algorithms tutorial

谷歌的人工智能位于全球前列,在图像识别、语音识别、无人驾驶等技术上都已经落地。而百度实质意义上扛起了国内的人工智能的大旗,覆盖无人驾驶、智能助手、图像识别等许多层面。苹果业已开始全面拥抱机器学习,新产品进军家庭智能音箱并打造工作站级别Mac。另外,腾讯的深度学习平台Mariana已支持了微信语音识别的语音输入法、语音开放平台、长按语音消息转文本等产品,在微信图像识别中开始应用。全球前十大科技公司全部发力人工智能理论研究和应用的实现,虽然入门艰难,但是一旦入门,高手也就在你的不远处! AI的开发离不开算法那我们就接下来开始学习算法吧!

Lasso算法(least absolute shrinkage and selection operator)

Lasso算法(least absolute shrinkage and selection operator,又译最小绝对值收敛和选择算子、套索算法)是一种同时进行特征选择和正则化(数学)的回归分析方法,旨在增强统计模型的预测准确性和可解释性,最初由斯坦福大学统计学教授Robert Tibshirani于1996年基于Leo Breiman的非负参数推断(Nonnegative Garrote, NNG)提出[1][2]。

Lasso算法最初用于计算最小二乘法模型,这个简单的算法揭示了很多估计量的重要性质,如估计量与岭回归(Ridge regression,也叫Tikhonov regularization)和最佳子集选择的关系,Lasso系数估计值(estimate)和软阈值(soft thresholding)之间的联系。它也揭示了当协变量共线时,Lasso系数估计值不一定唯一(类似标准线性回归)。Lasso是一种缩减方法,将回归系数收缩在一定的区域内。Lasso的主要思想是构造一个一阶惩罚函数获得一个精确的模型, 通过最终确定一些变量的系数为0进行特征筛选。以两个变量为例,标准线性回归的cost function还是可以用二维平面的等值线表示,而约束条件则与岭回归的圆不同,Lasso的约束条件可以用方形表示,如图:

LASSO(Least Absolute Shrinkage and Selection Operator) - 图1

相比圆,方形的顶点更容易与抛物面相交,顶点就意味着对应的很多系数为0,而岭回归中的圆上的任意一点都很容易与抛物面相交很难得到正好等于0的系数。这也就意味着,lasso起到了很好的筛选变量的作用。

应用案例

  1. import matplotlib.pyplot as plt
  2. import numpy as np
  3. from sklearn import datasets, linear_model, discriminant_analysis, cross_validation
  4. def load_data():
  5. diabetes = datasets.load_diabetes()
  6. return cross_validation.train_test_split(diabetes.data, diabetes.target, test_size=0.25, random_state=0)
  7. def test_lasso(*data):
  8. X_train, X_test, y_train, y_test = data
  9. lassoRegression = linear_model.Lasso()
  10. lassoRegression.fit(X_train, y_train)
  11. print("权重向量:%s, b的值为:%.2f" % (lassoRegression.coef_, lassoRegression.intercept_))
  12. print("损失函数的值:%.2f" % np.mean((lassoRegression.predict(X_test) - y_test) ** 2))
  13. print("预测性能得分: %.2f" % lassoRegression.score(X_test, y_test))
  14. #测试不同的α值对预测性能的影响
  15. def test_lasso_alpha(*data):
  16. X_train, X_test, y_train, y_test = data
  17. alphas = [0.01, 0.02, 0.05, 0.1, 0.2, 0.5, 1, 2, 5, 10, 20, 50, 100, 200, 500, 1000]
  18. scores = []
  19. for i, alpha in enumerate(alphas):
  20. lassoRegression = linear_model.Lasso(alpha=alpha)
  21. lassoRegression.fit(X_train, y_train)
  22. scores.append(lassoRegression.score(X_test, y_test))
  23. return alphas, scores
  24. def show_plot(alphas, scores):
  25. figure = plt.figure()
  26. ax = figure.add_subplot(1, 1, 1)
  27. ax.plot(alphas, scores)
  28. ax.set_xlabel(r"$\alpha$")
  29. ax.set_ylabel(r"score")
  30. ax.set_xscale("log")
  31. ax.set_title("Ridge")
  32. plt.show()
  33. if __name__=='__main__':
  34. X_train, X_test, y_train, y_test = load_data()
  35. # 使用默认的alpha
  36. #test_lasso(X_train, X_test, y_train, y_test)
  37. # 使用自己设置的alpha
  38. alphas, scores = test_lasso_alpha(X_train, X_test, y_train, y_test)
  39. show_plot(alphas, scores)