Max pooling 采样取各样区内最大
avg pooling 取平均
Max pooling 采样取各样区内最大
avg pooling 取平均
regression 找到函数输出
stride 步长
padding 填充0
layer 层
O' = O - learningrate*gradient
a.shape
【深度学习框架】
- Scikit-learn:面向机器学习,不支持 GPU 加速
- Caffe:第一个面向深度学习的框架
- Keras
- Theano
- Torch
- Singa
- PyTorch
- TensorFlow
回归>>>均方误差MSE
随机森林>>>分类器比较好用吗?
random_state是不同的特征作为初始的节点来产生的不同的树,所以需要不同的特征
袋装法,有放回的随机抽样技术
n个样本组成的自助集
bootstrap>>默认为True
袋外数据(out of bag data,简写为oob)
criterion 不纯度的衡量指标
有基尼系数和信息熵,信息熵的增益
n_estimators 这是森林中树木的数量,基评估器的数量,default-10
实例化-交叉验证
波动本质上是一样的, 但集成算法压倒性的强
集成算法
调参曲线,交叉验证,网格算法 调参方法
base estimator 基评估器
boosting 结合弱评估器一次次对难以评估的对象进行攻克
对特征提问得出决策规则-决策树
degree:默认为2,输入的整数越大,升入的维度越高
ordinal:会返回一列特征
什么是正则化路径?
不同a对应的特征向量的参数的取值所对应的矩阵
eps, n_alphas作用?帮助生成很小的a的取值
岭回归和LASSO的评估指标?岭回归是R2,LASSO是MSE
参数alpha_和alphas_?最佳a、自动生成的a
岭回归和LASSO计算交叉验证结果的区别?
ridge.cv_values_.mean(axis=0)#跨行求均值
lasso.mse_path_.mean(axis=1)#跨列求均值
为什么要用LASSO特征选择?LASSO对alpha敏感
如何画一条水平的虚线?
sklearn.linear_model.Ridge(岭回归:线性回归的基础上加上正则项,以处理多重共线性)
1)核心参数alpha:正则项系数,默认1,增大以消除多重共线性带来的影响,但过大会削弱模型本来已有的信息
2)通过调节alpha,模型的泛化能力可能上升。但现实生活中,很少有带有多重共线性的数据,使用岭回归和lasso模型表现一般会降低,
3)泛化能力没有直接衡量指标,只能通过R²和方差来大致判断(var()查看方差,方差反映真实值和预测值的差距)
岭回归解决多重共线性
矩阵的逆存在的条件:行列式不为0
MSE和MSA
2、衡量是否拟合了足够的信息:R²,越接近1越好
1) from sklearn.metrics import r2_score
r2_score(ytest,yhat)
2) reg.score(xtest,ytest)
3) cross_val_score(reg,x,y,cv=10,scoring="r2").mean()
R²为负说明模型拟合十分糟糕