🐒深度学习算法

type
status
date
slug
summary
tags
category
icon
password
 

📝 k 近邻分类

不需要训练过程,非线性分类问题,预测速度较慢,调参工作,以保证算法的准确性和泛化能力
小范围投票,少数服从多数
k是自己定义
思想理解了公式就理解了 I叫投票(指示函数)
边界越来越平滑,随着k值
决策边界
参数模型与非参数模型
泛化能力
学习每一种学习算法时,注意观察决策边界形状特点,并总结规律
较大的 k 是会抑制噪声的影响,但是使得分类界限不明显
加权投票
notion image
最近质心分类 收缩阈值增大 不需要用户提供近邻数量 k 值,决策边界为中垂线
沃罗诺伊图
最近邻方法可以用于分类问题,也可 以用于回归问题
 

📝 距离

欧氏距离(中心化),两个缺点
标准化欧式距离(维度化):解决每个特征尺度不一致的问题 协方差矩阵 特征的方差 正椭圆
notion image
马氏距离(正交化,旋转):方差协方差矩阵,缺点是对于样本数较少的情况下容易过拟合
马氏距离的单位是“标准差”。比如,马氏距离计算结果为 3,应该称作 3 个标准差。
notion image
(曼哈顿)城市街区距离
闵视距离
 
朴素贝叶斯分类
 
A*算法
反向传播是为了求梯度
 
  1. 梯度下降的优化
    1. 局部最优: 鞍点
    2. batch(批) GD 随机一个(永不收敛) mini-batch 波动很大
      1. notion image
        notion image
  1. 超参数
    1. 超参数
      1. notion image
    2. 初始值的影响: 默认就是 0.03
      1. notion image
        notion image
  1. 时间相关的 指数加权平均,动量梯度下降 RMSProp Adam上
    1. notion image
      notion image
      notion image
      notion image
  1. 学习率衰减
    notion image
    notion image
     
     
    神经网络的本质是线性回归
    1. 逻辑回归的算法计算输出、损失函数
    1. 逻辑回归的梯度下降算法
    1. 多样本的向量计算
     
     
     
    神经网络的本质是线性回归
    1. 逻辑回归的算法 损失函数
      1. 本质是将 回归问题 变成 分类(概率)问题 sigmoid函数 1/(1+e^-z)
      2. 损失函数:一个样本
        1. notion image
      3. 代价函数:损失函数求和
        1. notion image
      4. 更新公式: a表示学习率
        1. notion image
    1. 正向计算,反向(BP)更新
    1. 多样本的向量计算:矩阵
      1. notion image
    1. 激活函数: 处理非线性问题
      1. 线性方程 本质 是画超平面
      2. sigma函数容易梯度爆炸或0, 最后一层做,一般不做隐层的激函数,因为容易梯度消失或梯度爆炸
      3. 常见的激活函数,relu(max(0,x)), sigmoid(0,1), tanh(-1,1)
    1. 超参数
      1. 超参数
        1. notion image
      2. 初始值的影响: 默认就是 0.03
        1. 这里将 W 的值乘以 0.01(或者其他的常数值)的原因是为了使得权 W 初始化为较小的值。 因为sigmoid或tanh函数作为激活函数时,W比较小,则WX+b所得的值趋近于0 梯度较大,能够提高算法的更新速度 ReLU 和Leaky ReLU 作为激活函数时不存在这种问题,因为在大于0的时候,梯度均为1
          notion image
    正则化
    1. 基础
      1. 数据划分:训练 验证 测试 100万数据量:98%/1%/1% 超百万数据量:99.5%/0.25%/0.25%
      2. 偏差(小则拟合效果好)与方差(大则过拟合) 噪声(大则问题难)
      3. 过拟合 获取更多的数据,使得训练能够包含所有可能出现的情况 正则化 (Regularization) 寻找更合适的网络结构
      4. 对于高偏差(欠拟合),有以下几种方式: 扩大网络规模,如添加隐藏层或者神经元数量 寻找合适的网络架构,使用更大的网络结构,如AlexNet 训练时间更长一些 不断尝试,直到找到低偏差、低方差的框架
      5. 惩罚项
        1. 为什么能防止过拟合: 让W 变小,从而降低一层的影响
        2. 原理 每次更新的时候都会让,W多减去一个数,m是样本数,入是超参数
          1. notion image
        3. L2 范数
          1. notion image
    1. Droupout: 随机砍神经元 随机把输入变成0,随机,神经元太不过依赖任何一个特征
    1. 早停止法:治标不治本
    1. 数据增强:对图片不停转,对称,剪切,缩放,使得同样的结果,消除位置带来的
     
    梯度下降
    1. 存在的问题:鞍点(局部最优)、梯度消失或者爆炸
      1. 鞍点附近的平稳段会使得学非常缓慢 需要后面的动量梯度下降法、算法能够加速学习的原因,它们能帮助尽早走出平稳段 RMSProp 以及Adam 优化,还结合一些方法
        初始化参数策略 (第一部分提到) Mini梯度下降法 梯度下降算法的优化 学习率衰减
    1. Mini梯度下降法: —batch(批)GD(慢) 相对噪声低一些,成本函数总是向减小的方向下降 —SGD随机一个 有很多噪声,需要适当减小学习率,成本函数总体趋势向全局最小值靠近,但永远不会收敛,而是一直在最小值附近波动。 —mini-batch(波动很大) 两者之间
      1. notion image
    1. 梯度下降算法的优化
      1. 指数加权平均(与时间相关的)
        1. notion image
      2. 动量梯度:前一个数据占一点比例
        1. notion image
      3. RMSProp 过渡
        1. notion image
      4. Adam算法
        1. notion image
    1. 学习率衰减, 次数更多,步长越短
    1. 标准化输入
      1. notion image
    多元线性回归
     
     
    上一篇
    机器学习算法
    下一篇
    PyTorch入门
    Loading...
    文章列表
    一枚热爱技术与产品的产品经理
    基本信息
    薯塔AI
    产品修炼
    技术分享
    编码知识
    AI相关
    行业知识