💻
QMMMS的笔记
博客
  • QMMMS的笔记
  • agent
    • MCP的背景、原理和开发
    • Agent 历史与背景
    • Agentic Workflows
    • 环境检查与基础工具
    • Tool Call
    • 工具与运行时的值
    • temp
    • 处理 Tool Call error
    • trick
  • algorithm
    • 线性结构
    • 二叉树
    • 图
    • 查找
    • 排序
    • 动态规划
    • 优化方法
    • 数学
    • 迁移至Java
  • computer_composition
    • 系统总线
    • 存储器
    • 输入输出系统
    • 计算机的运算方法
    • 指令系统
    • 补充
  • computer_network
    • 引入
    • 应用层
    • 传输层
    • 网络层(数据平面)
    • 网络层(控制平面)
    • 链路层
    • 常见问答
    • 实验
  • database
    • SQL实战
    • 关系代数
    • 数据库设计
    • 规范化
    • 数据库基本概念
    • 查询原理
    • 数据库恢复技术
    • 并发控制
  • dev_tools
    • Git
    • Nginx
    • Spring
    • LangChain
    • PyTorch Cheat Sheet
    • MyBatis
    • MySQL Cheat Sheet
    • MySQL 补充
    • Redis
    • Docker
    • RocketMQ
    • Chrome
  • linux
    • Linux基础命令与使用
    • 文件与权限
    • 文件与目录操作
    • 权限属性高级
    • 命令与文件的查找
    • 文件压缩和打包
    • vim编辑器
    • shell变量
    • 命令补充
    • 数据流重定向
    • 管道命令
    • shell脚本
    • 用户管理
    • 用户间交流
    • 计划任务
    • 进程管理
    • 软件管理
    • 认识系统服务
    • 运维常用命令
    • 常用命令
  • llm
    • 大规模语言模型概述
    • 分布式训练概述
    • 有监督微调概述
    • 强化学习与LLM
    • LLM评估概述
    • 大模型应用
    • 理解大模型
    • 量化
    • 预训练
    • 上下文学习
  • machine_learning
    • 引入
    • 大致正确学习
    • 一致收敛
    • 偏差还是过拟合?
    • 可学习的充要条件
    • 非均匀可学习性
    • 计算复杂性
  • mathematics
    • 概率与统计基础
    • 线性代数基础
  • operating_system
    • 操作系统基本概念
    • 进程和线程
    • 同步,互斥与死锁
    • 内存管理
    • 文件系统
    • I/O系统
    • 保护与安全
    • 《现代操作系统》
  • statistical_learning
    • 统计学习引入
    • 线性回归
    • 分类
    • 重抽样方法
    • 线性模型选择与正则化
    • 非线性模型
    • 基于树的方法
    • 支持向量机
    • 无指导学习
    • 马尔科夫链和蒙托卡罗方法简明理解
    • R语言速查
  • deep_learning
    • basic_concepts
      • 逻辑回归与损失函数
      • 神经网络
      • 正则化、预处理、权重初始化
      • 优化算法
      • 机器学习策略
      • 复习:从计算机视觉的角度
      • 卷积神经网络
      • 深度卷积网络示例
      • 计算机视觉任务
      • 循环神经网络
      • 自然语言处理任务
      • 注意力
      • Transformers 家族
      • 显卡扫盲
      • 强化学习概述
    • semi-supervise
      • 半监督学习简介
      • Consistency Regularization
      • Proxy-label Methods
      • Holistic Methods
      • Generative Models
      • Graph-Based SSL
      • Self-Supervision for SSL
      • Other SSL methods
  • programming
    • cpp
      • STL
      • C++基础
      • 内存管理
      • 面向对象
    • java
      • 环境和介绍
      • 注释
      • String
      • 面向对象思想
      • Object
      • 包
      • 访问权限修饰符
      • 初始化块
      • 接口
      • 内部类
      • 注解
      • 枚举
      • 集合框架
      • List
      • Map
      • 泛型
      • 迭代
      • IO与流
      • 序列化
      • 异常
      • Lambda
      • Stream流
      • Socket
      • 缓冲
      • 命名规范
      • 拆箱装箱
      • 值传递
      • 深拷贝
      • 反射
      • JVM
      • 并发编程基础
    • python
      • 并发编程
      • 环境管理
  • software_engineering
    • basic_concepts
      • 系统分析与设计概述
      • 规划
      • 需求分析与原型设计
      • 项目管理
      • 建模
      • 数据库设计
      • 架构
      • 配置管理
      • 测试管理
      • 安全
      • 编码原则
      • 微服务
      • 补充内容
    • software_testing
      • CMMI基础
      • PPQA与SQA
      • 软件测试基础
      • 黑盒测试
      • 白盒测试
      • 集成测试
      • 系统测试
      • 测开面试补充
由 GitBook 提供支持
在本页
  • 5.0 基本问题
  • 5.1 交叉验证法
  • 5.1.1 验证集的方法
  • 5.1.2 K-折(K-fold)交叉验证法
  • 5.1.3 分类问题的交叉验证
  • 5.2 自助法
在GitHub上编辑
  1. statistical_learning

重抽样方法

5.0 基本问题

  • 交叉验证常用的误差估计方法?

  • 验证集方法存在的问题有哪些?

  • 留⼀交叉验证的测试误差估计的均值如何计算?

  • 留⼀交叉验证和验证集方法的比较?

  • 使⽤交叉验证的目的是什么?是对MSE的真值感兴趣吗?

  • LOOCV方法和k折方法的异同点?如何进行偏差-方差的均衡?

  • 对于分类问题,交叉验证的评判标准是什么?

  • 使⽤KNN分类器时,使用训练错误率还是交叉验证错误率对K值进行选择?为什么?

  • 自助法适用的条件?

5.1 交叉验证法

评价一个模型的表现过程称为模型评价。

为一个模型选择合适的光滑度的过程称为模型选择。

5.1.1 验证集的方法

将可用的样本集随机分为两部分: 训练集 和 验证集(或保留集)。

模型在训练集上拟合,拟合后的模型用于预测验证集中的观察值的响应。产生的验证集的误差提供了测试误差的估计值。

例如随机分成两半:左侧为训练集,右侧为验证集。

缺点包括:

  • 测试错误率的验证法估计的波动很大,取决于具 体的哪些观测包含在训练集中,哪些包含在验证 集中。

  • 只有观测数据的一个子集,即训练集,被用来拟合模型。

  • 因此,验证集错误率可能会高估在整个数据集上拟合模型所得到的测试误差。

5.1.2 K-折(K-fold)交叉验证法

将数据随机分成 K 个大小(基本)相等的组。我们留出一组,如第k组,在剩下的 K - 1 组拟合出模型。然后用第k组测试模型得MSE。

对每一个k = 1, 2, …, K 重复上述步骤,然后将结果 进行组合。

对测试均方误差的估计为:

复习一下:

在实践中,一般令 k=5或者10

当 k=n 时,变成“留一法”交叉验证LOOCV方法,即一个样本就是一组。但是LOOCV方法的缺点是:

  • 计算量大

  • 偏差最小,但是每一折的估计都高度相关,因此可能有很大的方差。

尽管CV方法有时会低估测试均方误差的真值,但从CV曲线可以正确预测测试均方误差曲线的最小值点。

5.1.3 分类问题的交叉验证

在分类问题中,错误率写作:

5.2 自助法

自助法(Bootstrap)是一种灵活而强大的统计工具, 可用于量化给定估计量或统计学习方法的不确定性。

bootstrap方法允许我们使用计算机来模拟获得新数据集的过程,这样我们就可以在不产生额外样本的情况下评估我们估计的变化性。

通过对原始数据集有放回重复抽样来获得不同的数据集。

“bootstrap数据集”中的每一个都是通过有 放回抽样创建的,大小与我们的原始数据集相同。 因此,一些观察结果可能会在给定的bootstrap数 据集中出现不止一次,而一些则根本不会出现。

利用公式估计bootstrap估计的标准误差:

  • 其中,B代表生成几个数据集

  • $\hat{\alpha}^{*r}$ 代表对应的生成数据集 $Z^{*r}$ 生成的估计值

如果数据是一个时间序列,我们不能简单 地对观测数据进行有放回抽样。相反,我们可以创建连续观察的区块,并对这些区块进行有放回抽取。然后我们将采样的块拼一起, 以获得一个bootstrap数据集。

每个bootstrap样本都与原始数据有显著的重叠。 大约三分之二的原始数据点出现在每个bootstrap 样本中。这将导致bootstrap严重低估真实的预测误差。

对数据集D采样 m 次生成训练集 D’,某个观测没被采到的概率是

上一页分类下一页线性模型选择与正则化

最后更新于10个月前

CV(k)=1k∑i=1kMSEiCV_{(k)}=\frac{1}{k}\sum_{i=1}^k MSE_iCV(k)​=k1​i=1∑k​MSEi​
MSE=1n∑i=1n(yi−f^(xi))2MSE = \frac{1}{n}\sum_{i=1}^{n}(y_i-\hat{f}(x_i))^2MSE=n1​i=1∑n​(yi​−f^​(xi​))2
CV(n)=1n∑i=1nI(yi≠y^i)CV_{(n)}=\frac{1}{n} \sum_{i=1}^n I(y_i \neq \hat{y}_i)CV(n)​=n1​i=1∑n​I(yi​=y^​i​)
SEB(α^)=1B−1∑r=1B(α^∗r−α^ˉ∗)2SE_B(\hat{\alpha})=\sqrt { \frac{1}{B-1} \sum_{r=1}^B ( \hat{\alpha}^{*r} - \bar{\hat{\alpha}}^* )^2 }SEB​(α^)=B−11​r=1∑B​(α^∗r−α^ˉ∗)2​
α^ˉ∗=1B∑r=1Bα^∗r\bar{\hat{\alpha}}^*=\frac{1}{B}\sum_{r=1}^B\hat{\alpha}^{*r}α^ˉ∗=B1​r=1∑B​α^∗r
lim⁡m→inf⁡(1−1m)m=1e=0.368\lim_{m\to\inf}(1-\frac{1}{m})^m=\frac{1}{e}=0.368m→inflim​(1−m1​)m=e1​=0.368