Driven to discover
  • 目录
  • 简介
  • 数学基础
    • 数学基础
      • 线性代数
      • 概率统计
        • 概率基础
        • 连续概率
        • 概率分布
        • 大数与中心极限
      • 时间序列
      • 信息理论
      • 参数估计
      • 优化降梯
        • 极大、极小和鞍点
        • 泰勒及Jacobian、Hessian
        • 连续可微
          • 无约束优化
          • 有约束优化
        • 非连续可微
      • 备查附录
  • 数据挖掘
    • 数据挖掘
      • 数据预分析
      • 数据预处理
        • 数据采样
        • 数据降维
        • 特征选择
      • 模式挖掘
        • 频繁项集
        • 多样项集
        • 基于约束的频繁项集
        • 高维及庞大项集
        • 序列模式
        • 图模式
      • 聚类分析
        • 划分聚类
        • 层次聚类
        • 密度/网格聚类
      • 文本挖掘
        • 短语挖掘与主题模型
        • 实体识别与类型标记
  • 机器学习
    • 机器学习
      • 模型评估与选择
      • 线性模型
      • 决策树模型
      • 支持向量机
      • 贝叶斯分类器
      • 集成学习
        • Bagging
        • Boosting
          • AdaBoost
          • GBDT
          • XGBoost
          • LightGBM
        • 结合策略
      • 概率图模型
        • 贝叶斯网络
        • 隐马尔可夫
        • 条件随机场
  • 网络图模型
    • 网络图模型
      • 大规模图处理
        • 社区检测与搜索
        • 中心度分析
        • 网络形成模型
        • 异构信息网络
      • 网络映射
        • 结构维持的网络映射
        • 性质维持的网络映射
        • 动态网络映射
      • Graph Neural Network
  • 深度学习
    • 深度学习
      • 深度前馈网络
        • 非线性的学习
        • 基于梯度的学习
        • 激活函数
        • 架构设计
        • 前向传播
        • 反向传播
      • 深度学习正则化
        • 参数范数惩罚
        • 作为约束的范数惩罚
        • 正则化和欠约束问题
        • 数据集增强
        • 噪声鲁棒性
        • 半监督学习
        • 多任务学习
        • 提前终止
        • 参数绑定和共享
        • 稀疏表示
        • Bagging和其他集成方法
        • Dropout
        • 对抗训练
        • 切面距离、正切传播和流形正切分类器
      • 深度学习优化
        • 学习和纯优化异同
        • 神经网络优化中的挑战
        • 优化算法
        • 参数初始化策略
        • 优化策略和元算法
      • 卷积网络
        • 卷积运算
        • 卷积动机
        • 池化
      • 循环和递归网络
        • 展开计算图
        • 循环神经网络
        • 长短期记忆
        • 注意力机制
      • 生成对抗网络
      • 多任务学习
      • 技术分析
        • Attention
        • Normalization
  • 增强学习
    • 增强学习
      • 增强学习的数学表达形式
      • 求解增强学习问题
        • 已知环境模型的问题
        • 未知环境模型的问题
  • 计算机视觉
    • 计算机视觉
      • 图像分类
        • LeNet-5
        • AlexNet
        • VGGNet
        • GoogLeNet
        • ResNet
        • DenseNet
      • 目标检测
        • 相关研究
          • 选择性搜索
          • OverFeat
        • 基于区域提名的方法
          • R-CNN
          • SPP-net
          • Fast R-CNN
          • Faster R-CNN
          • R-FCN
        • 端到端的方法
          • YOLO
          • SSD
      • 语义分割
        • 全卷积网络
          • FCN
          • DeconvNet
          • SegNet
          • DilatedConvNet
        • CRF/MRF的使用
          • DeepLab
          • CRFasRNN
          • DPN
        • 实例分割
          • Mask R-CNN
      • 图像检索的深度哈希编码
        • 传统哈希编码方法
        • CNNH
        • DSH
      • 光学字符识别
        • CTC解码
          • 前向后向
          • 目标函数
          • 基本原理
      • 人脸识别
      • 三维重建
  • 自然语言处理
    • 自然语言处理
      • 中文分词技术
      • 词性标注
        • 传统词性标注模型
        • 基于神经网络的词性标注模型
        • 基于Bi-LSTM的词性标注模型
      • 命名实体识别
      • 关键词提取
        • 词频与排序
        • 主题模型
      • 句法分析
        • 基于PCFG的句法分析
        • 基于最大间隔马尔可夫网络的句法分析
        • 基于条件随机场的句法分析
        • 基于移进-归约的句法分析
      • 文本向量化
        • Continuous Bag-of-Word
        • Skip-Gram
        • word2vec(Hierarchical Softmax与Negative Sampling)
        • GloVe
        • fastText
        • Bert
      • 情感分析
        • 文档维度情感分析
        • 句子维度情感分析
        • 方面维度情感分析
        • 其他情感分析任务
      • 机器翻译
        • 神经网络机器翻译基本模型
        • 基于Attention的神经网络机器翻译
        • 基于卷积的机器翻译
  • 搜索推荐广告
    • 搜索推荐广告
      • 搜索
        • 召回
        • 排序
          • 传统匹配模型
          • 深度学习匹配模型
            • Representation Learning
              • DNN-based
              • CNN-based
              • RNN-based
            • Matching Function Learning
              • Matching with word-level learning methods
              • Matching with attention model
            • Matching function learning&Representation learning
            • Query-Doc Relevance matching
              • Based on global distribution of matching strengths
              • Based on local context of matched terms
        • 重排
      • 推荐
        • 召回
        • 排序
          • 传统匹配模型
            • 协同过滤
            • 基于特征
          • 深度学习匹配模型
            • Representation learning
              • 协同过滤
              • 基于特征
            • Matching function learning
              • 协同过滤
              • 基于特征
        • 重排
      • 广告
        • 行业知识
        • 核心技术
          • 发展趋势
          • CTR/CVR
            • 浅层模型
            • 深度模型
          • 智能定向
          • 技术难点
        • 相关技术
  • 计算机基础
    • 计算机基础
      • 数据结构
        • 排序算法
      • 操作系统
      • 计算机网络
      • 计算机组成原理
      • python
        • pandas
      • Bash
      • Spark
      • SQL
      • Excel
  • 经验总结
    • 经验总结
      • 广告应用
        • 人群定向
        • 召回通路
      • 时序预测
        • 统计时序
        • 机器学习
        • 深度学习
      • 图谱探索
        • 标签传播
        • 图谱&网络
      • 策略评估
        • 激励策略
        • 均衡策略
Powered by GitBook
On this page
  1. 计算机视觉
  2. 计算机视觉
  3. 语义分割
  4. CRF/MRF的使用

DPN

PreviousCRFasRNNNext实例分割

Last updated 6 years ago

DPN(Deep Parsing Network)使用现有的CNN来完成一元问题,然后又精心设计了其他层来模拟平均场算法的二元问题。DPN的优点如下:

  • 在综合使用了CNN和随机场的一般工作中,需要对随机场做多次迭代,然而DPN只做一次迭代就可以获得比较好的效果。

  • DPN同时考虑了空间上下文关系如高阶关系,有能力对各种二元问题进行建模,使得很多二元问题成为DPN的特例。

  • DPN使得马尔可夫场问题能够并行化解决,通过GPU来加速计算。DPN使用卷积和池化操作来近似MF,可以通过近似来加速。

二元势函数都是通过考虑任意两个像素点之间的关系来构造的。如 ψ(yiu,yju)=μ(u,v)d(i,j)\psi(y_i^{u},y_j^{u})=\mu(u,v)d(i,j)ψ(yiu​,yju​)=μ(u,v)d(i,j) 中的 yiuy_i^{u}yiu​ 表示像素点 iii 是否被标记为 uuu ; d(i,j)d(i,j)d(i,j) 表示像素点 i,ji,ji,j 之间的关系,比如RGB像素点的距离或者空间距离; μ(u,v)\mu(u,v)μ(u,v) 则表示 u,vu,vu,v 这两个标记全局共现的惩罚。在空间上相近且看起来相似的两个点,应该更容易获得相同的标签。然而这种建模方式的两个缺点:(1)它只考虑了共现的频率,却没有考虑空间上下文关系,比如,当人和椅子一起出现的时候,人应该是坐在椅子上的,而不太可能在椅子下;(2)它只考虑了像素点之间成对(Pairwise)的关系,却没有考虑更高阶的关系。为了解决这些缺点,在二元势函数中引入了三元惩罚项:

Ψ(yiu,yju)=∑k=1Kλkμk(i,u,j,v)∑∀z∈Njd(j,z)pzv\Psi(y_i^u,y_j^u)=\sum\limits_{k=1}^K\lambda_k\mu_k(i,u,j,v)\sum\limits_{\forall z\in \mathcal{N}_j}d(j,z)p_z^vΨ(yiu​,yju​)=k=1∑K​λk​μk​(i,u,j,v)∀z∈Nj​∑​d(j,z)pzv​

这个式子学习了局部标记上下文的混合。 KKK 是混合组件的数量, λk\lambda_kλk​ 取值为 000 或 111 ,表示哪个组件被激活,且 ∑k=1Kλk=1\sum\limits_{k=1}^K\lambda_k=1k=1∑K​λk​=1 。如下图(b)所示,红色点和蓝色点描述了中心点 iii 和它的邻域 jjj 。 (i,u)(i,u)(i,u) 表示像素点 iii 被标记为 uuu 。 μ(i,u,j,v)\mu(i,u,j,v)μ(i,u,j,v) 表示根据 iii 和 jjj 的相对关系, (i,u)(i,u)(i,u) 和 (j,v)(j,v)(j,v) 同时存在的代价。上式的第二项就为三元惩罚项,表示像素点 i,ji,ji,j 以及 jjj 的邻域的关系。当 (i,u)(i,u)(i,u) 和 (j,v)(j,v)(j,v) 相容时, (i,u)(i,u)(i,u) 也应该相容于 (z,v)(z,v)(z,v) ,其中 zzz 是 jjj 的邻域,如下图(a)所示。所以DPN的主要贡献就是把上式分两步建模成CNN。第一步如图(c)所示,用m*m的卷积核作用于每个点 jjj 来表示 d(j,z)qjvd(j,z)q_j^vd(j,z)qjv​ ,平滑了像素点 jjj 和它的邻域之间的预测。第二步使用n*n的卷积核作用于每个点 iii 来表示 μk(i,u,j,v)\mu_k(i,u,j,v)μk​(i,u,j,v) ,如图(d)所示。