解锁式学习
749人加入学习
(0人评价)
机器学习-Sklearn(第三版)
价格 免费
承诺服务
该课程属于 2243-咸鱼-算法方向-数据挖掘-就业:否 请加入后再学习

逻辑回归

一、概述

1、逻辑回归是用于分类的回归算法,可做二分类,也可做多分类

2、逻辑回归的sigmoid函数(记住公式和图像)

z越大g(z)越靠近1,z越小g(z)越靠近0,将任何数据压缩到(0,1)

3、逻辑回归的优点:对线性关系拟合效果极好;计算速度快;返回不是固定0、1,而是小数形式类概率数字

4、目的是求解使模型拟合效果最好的参数,方式是梯度下降SGD

二、linear_model.LogisticRegression

1、损失函数:求解最优参数的工具,用来衡量参数为θ的模型拟合训练集产生的信息损失的大小。

追求损失函数最小化的参数组合。(不求解参数的模型就没有损失函数,比如KNN,决策树)

对逻辑回归过拟合的控制,通过正则化实现。

2、控制过拟合的两个参数

1)penalty

默认="l2",若选择"l1”,参数solver只能使用"liblinear"和"saga"

l1正则化会把参数压缩到0,本质特征选择,越强、0越多、参数越稀疏,防止过拟合。数据维度高:l1正则化。

l2正则化只会让参数尽量小,不会取到0。

2)C:正则化强度导数默认1.0(正则项:损失函数=1:1),越小,对模型惩罚越大,正则化强度越大。

3、重要属性

1)coef_:每个特征对应参数

 

逻辑回归模型评估指标

metric.confusion_matrix

metric.roc_auc_score

metric.accuracy_score

1、向量一般写成列向量

2、模型属性都是在fit之后查看

3、np.linspace(start,end,num)包括end

4、predict返回的是一个预测的值,predict_proba返回的是对于预测为各个类别的概率

5、

[展开全文]

重要参数penatly&C

1、正则化

L1正则化和L2正则化虽然都可以控制过拟合,但它们的效果并不相同。当正则化强度逐渐增大(即C逐渐变小), 参数的取值会逐渐变小,但L1正则化会将参数压缩为0,L2正则化只会让参数尽量小,不会取到0。

在L1正则化在逐渐加强的过程中,携带信息量小的、对模型贡献不大的特征的参数,会比携带大量信息的、对模型 有巨大贡献的特征的参数更快地变成0,所以L1正则化本质是一个特征选择的过程,掌管了参数的“稀疏性”。L1正 则化越强,参数向量中就越多的参数为0,参数就越稀疏,选出来的特征就越少,以此来防止过拟合。

相对的,L2正则化在加强的过程中,会尽量让每个特征对模型都有一些小的贡献,但携带信息少,对模型贡献不大 的特征的参数会非常接近于0。通常来说,如果我们的主要目的只是为了防止过拟合,选择L2正则化就足够了。但 是如果选择L2正则化后还是过拟合,模型在未知数据集上的效果表现很差,就可以考虑L1正则化。

 

[展开全文]