💻
QMMMS的笔记
博客
  • QMMMS的笔记
  • agent
    • MCP的背景、原理和开发
    • Agent 历史与背景
    • Agentic Workflows
    • 环境检查与基础工具
    • Tool Call
    • 工具与运行时的值
    • temp
    • 处理 Tool Call error
    • trick
  • algorithm
    • 线性结构
    • 二叉树
    • 图
    • 查找
    • 排序
    • 动态规划
    • 优化方法
    • 数学
    • 迁移至Java
  • computer_composition
    • 系统总线
    • 存储器
    • 输入输出系统
    • 计算机的运算方法
    • 指令系统
    • 补充
  • computer_network
    • 引入
    • 应用层
    • 传输层
    • 网络层(数据平面)
    • 网络层(控制平面)
    • 链路层
    • 常见问答
    • 实验
  • database
    • SQL实战
    • 关系代数
    • 数据库设计
    • 规范化
    • 数据库基本概念
    • 查询原理
    • 数据库恢复技术
    • 并发控制
  • dev_tools
    • Git
    • Nginx
    • Spring
    • LangChain
    • PyTorch Cheat Sheet
    • MyBatis
    • MySQL Cheat Sheet
    • MySQL 补充
    • Redis
    • Docker
    • RocketMQ
    • Chrome
  • linux
    • Linux基础命令与使用
    • 文件与权限
    • 文件与目录操作
    • 权限属性高级
    • 命令与文件的查找
    • 文件压缩和打包
    • vim编辑器
    • shell变量
    • 命令补充
    • 数据流重定向
    • 管道命令
    • shell脚本
    • 用户管理
    • 用户间交流
    • 计划任务
    • 进程管理
    • 软件管理
    • 认识系统服务
    • 运维常用命令
    • 常用命令
  • llm
    • 大规模语言模型概述
    • 分布式训练概述
    • 有监督微调概述
    • 强化学习与LLM
    • LLM评估概述
    • 大模型应用
    • 理解大模型
    • 量化
    • 预训练
    • 上下文学习
  • machine_learning
    • 引入
    • 大致正确学习
    • 一致收敛
    • 偏差还是过拟合?
    • 可学习的充要条件
    • 非均匀可学习性
    • 计算复杂性
  • mathematics
    • 概率与统计基础
    • 线性代数基础
  • operating_system
    • 操作系统基本概念
    • 进程和线程
    • 同步,互斥与死锁
    • 内存管理
    • 文件系统
    • I/O系统
    • 保护与安全
    • 《现代操作系统》
  • statistical_learning
    • 统计学习引入
    • 线性回归
    • 分类
    • 重抽样方法
    • 线性模型选择与正则化
    • 非线性模型
    • 基于树的方法
    • 支持向量机
    • 无指导学习
    • 马尔科夫链和蒙托卡罗方法简明理解
    • R语言速查
  • deep_learning
    • basic_concepts
      • 逻辑回归与损失函数
      • 神经网络
      • 正则化、预处理、权重初始化
      • 优化算法
      • 机器学习策略
      • 复习:从计算机视觉的角度
      • 卷积神经网络
      • 深度卷积网络示例
      • 计算机视觉任务
      • 循环神经网络
      • 自然语言处理任务
      • 注意力
      • Transformers 家族
      • 显卡扫盲
      • 强化学习概述
    • semi-supervise
      • 半监督学习简介
      • Consistency Regularization
      • Proxy-label Methods
      • Holistic Methods
      • Generative Models
      • Graph-Based SSL
      • Self-Supervision for SSL
      • Other SSL methods
  • programming
    • cpp
      • STL
      • C++基础
      • 内存管理
      • 面向对象
    • java
      • 环境和介绍
      • 注释
      • String
      • 面向对象思想
      • Object
      • 包
      • 访问权限修饰符
      • 初始化块
      • 接口
      • 内部类
      • 注解
      • 枚举
      • 集合框架
      • List
      • Map
      • 泛型
      • 迭代
      • IO与流
      • 序列化
      • 异常
      • Lambda
      • Stream流
      • Socket
      • 缓冲
      • 命名规范
      • 拆箱装箱
      • 值传递
      • 深拷贝
      • 反射
      • JVM
      • 并发编程基础
    • python
      • 并发编程
      • 环境管理
  • software_engineering
    • basic_concepts
      • 系统分析与设计概述
      • 规划
      • 需求分析与原型设计
      • 项目管理
      • 建模
      • 数据库设计
      • 架构
      • 配置管理
      • 测试管理
      • 安全
      • 编码原则
      • 微服务
      • 补充内容
    • software_testing
      • CMMI基础
      • PPQA与SQA
      • 软件测试基础
      • 黑盒测试
      • 白盒测试
      • 集成测试
      • 系统测试
      • 测开面试补充
由 GitBook 提供支持
在本页
  • Entropy Minimization
  • Label Smoothing
在GitHub上编辑
  1. deep_learning
  2. semi-supervise

Other SSL methods

Entropy Minimization

由于半监督学习的样本过少,所以一种比较好的思路就是将网络在上一次产生的,自信程度比较高的预测(我们就当他是预测对了的)加入到本次的训练中。因此,在训练的时候我们需要让网络的预测更加自信,而不是比较犹豫,即熵最小化 Entropy Minimization

也可以看作阻止网络的决策边界在数据点附近

对于分类问题,网络最后必然是通过一个softmax来输出,而softmax是所有的类别经过归一化之后自信程度。假设网络对每一个类的自信程度都相近,那么整体的熵值就会越大,反之则越小。这个方法我们可以通过增加一个对于预测的损失项来实现(信息论熵的定义):

−∑k=1Cfθ(x)klog⁡fθ(x)k-\sum_{k = 1}^{C}f_{\theta}(x)_k \log f_{\theta}(x)_k−k=1∑C​fθ​(x)k​logfθ​(x)k​

Label Smoothing

标签平滑是一种正则化技术,该技术应用于分类模型。主要动机是解决过度拟合并改善模型的鲁棒性、使模型对嘈杂或模棱两可的培训数据更加稳健。通过软化目标标签,鼓励模型对其预测的信心降低。

硬标签例如 [0,0,1,0] ,软化后的标签如 [ϵ,ϵ,1−(K−1)ϵ,ϵ]

具体来说,我们拿到 softmax 归一化的概率后

qi=exp⁡(zi)∑j=1Kexp⁡(zj)q_i = \frac{\exp(z_i)}{\sum_{j = 1}^{K} \exp(z_j)}qi​=∑j=1K​exp(zj​)exp(zi​)​

真实的概率分布有如下改变,其中,一共有 K 类,ε\varepsilonε 是一个较小的超参数:

Pi={1,if (i=y)0,if (i≠y)⟹Pi={(1−ε),if (i=y)εK−1,if (i≠y)P_i=\begin{cases} 1, & \text{if }(i = y)\\ 0, & \text{if }(i\neq y) \end{cases} \quad\Longrightarrow\quad P_i=\begin{cases} (1 - \varepsilon), & \text{if }(i = y)\\ \frac{\varepsilon}{K - 1}, & \text{if }(i\neq y) \end{cases}Pi​={1,0,​if (i=y)if (i=y)​⟹Pi​={(1−ε),K−1ε​,​if (i=y)if (i=y)​

交叉熵损失函数的改变如下:

Loss=−∑i=1Kpilog⁡qi⟹Lossi={(1−ε)∗Loss,if (i=y)ε∗Loss,if (i≠y)Loss = -\sum_{i = 1}^{K} p_i \log q_i \quad\Longrightarrow\quad Loss_i=\begin{cases} (1 - \varepsilon) * Loss, & \text{if }(i = y)\\ \varepsilon * Loss, & \text{if }(i\neq y) \end{cases}Loss=−i=1∑K​pi​logqi​⟹Lossi​={(1−ε)∗Loss,ε∗Loss,​if (i=y)if (i=y)​

最优预测概率分布如下,其中α是任意实数:

Zi={+∞,if (i=y)0,if (i≠y)⟹Zi={log⁡(k−1)(1−ε)ε+α,if (i=y)α,if (i≠y)Z_i=\begin{cases} +\infty, & \text{if }(i = y)\\ 0, & \text{if }(i\neq y) \end{cases} \quad\Longrightarrow\quad Z_i=\begin{cases} \log\frac{(k - 1)(1 - \varepsilon)}{\varepsilon+\alpha}, & \text{if }(i = y)\\ \alpha, & \text{if }(i\neq y) \end{cases}Zi​={+∞,0,​if (i=y)if (i=y)​⟹Zi​={logε+α(k−1)(1−ε)​,α,​if (i=y)if (i=y)​
上一页Self-Supervision for SSL下一页programming

最后更新于2个月前