【语义分割】【总结】Object-Contextual Representations for Semantic Segmentation

论坛 期权论坛     
选择匿名的用户   2021-5-29 23:30   185   0
<p><strong>中文翻译:</strong><a href="https://blog.csdn.net/qq_36268755/article/details/105850287">https://blog.csdn.net/qq_36268755/article/details/105850287</a></p>
<p id="main-toc"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#%E4%B8%BB%E8%A6%81%E8%B4%A1%E7%8C%AE">主要贡献</a></p>
<p id="%E6%95%B4%E4%BD%93%E7%BB%93%E6%9E%84-toc" style="margin-left:0px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#%E6%95%B4%E4%BD%93%E7%BB%93%E6%9E%84">整体结构</a></p>
<p id="%E5%85%B7%E4%BD%93%E6%96%B9%E6%B3%95-toc" style="margin-left:0px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#%E5%85%B7%E4%BD%93%E6%96%B9%E6%B3%95">具体方法</a></p>
<p id="%E5%AE%9E%E9%AA%8C-toc" style="margin-left:0px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#%E5%AE%9E%E9%AA%8C">实验</a></p>
<p id="%E5%AF%B9%E6%AF%94%E5%AE%9E%E9%AA%8C1%20%E7%B2%97%E5%88%86%E5%89%B2%E7%9A%84%E7%9B%91%E7%9D%A3-toc" style="margin-left:40px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#%E5%AF%B9%E6%AF%94%E5%AE%9E%E9%AA%8C1%20%E7%B2%97%E5%88%86%E5%89%B2%E7%9A%84%E7%9B%91%E7%9D%A3">对比实验1 粗分割的监督</a></p>
<p id="%E5%AF%B9%E6%AF%94%E5%AE%9E%E9%AA%8C2%C2%A0%E5%83%8F%E7%B4%A0-%E5%8C%BA%E5%9F%9F%E5%85%B3%E7%B3%BB%E6%96%B9%E6%B3%95-toc" style="margin-left:40px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#%E5%AF%B9%E6%AF%94%E5%AE%9E%E9%AA%8C2%C2%A0%E5%83%8F%E7%B4%A0-%E5%8C%BA%E5%9F%9F%E5%85%B3%E7%B3%BB%E6%96%B9%E6%B3%95">对比实验2 像素-区域关系方法</a></p>
<p id="Double-attention-toc" style="margin-left:80px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#Double-attention">Double-attention</a></p>
<p id="ACFNet-toc" style="margin-left:80px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#ACFNet">ACFNet</a></p>
<p id="%E5%AE%9E%E9%AA%8C3%20%E5%A4%9A%E5%B0%BA%E5%BA%A6%E4%B8%8A%E4%B8%8B%E6%96%87%E6%96%B9%E6%B3%95-toc" style="margin-left:40px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#%E5%AE%9E%E9%AA%8C3%20%E5%A4%9A%E5%B0%BA%E5%BA%A6%E4%B8%8A%E4%B8%8B%E6%96%87%E6%96%B9%E6%B3%95">实验3 多尺度上下文方法</a></p>
<p id="PPM-toc" style="margin-left:80px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#PPM">PPM</a></p>
<p id="ASPP-toc" style="margin-left:80px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#ASPP">ASPP</a></p>
<p id="%E5%AF%B9%E6%AF%94%E5%AE%9E%E9%AA%8C4%20%E5%85%B3%E7%B3%BB%E4%B8%8A%E4%B8%8B%E6%96%87%E6%96%B9%E6%B3%95-toc" style="margin-left:40px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#%E5%AF%B9%E6%AF%94%E5%AE%9E%E9%AA%8C4%20%E5%85%B3%E7%B3%BB%E4%B8%8A%E4%B8%8B%E6%96%87%E6%96%B9%E6%B3%95">对比实验4 关系上下文方法</a></p>
<p id="Self-Attention%EF%BC%88non-local%EF%BC%89-toc" style="margin-left:80px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#Self-Attention%EF%BC%88non-local%EF%BC%89">Self-Attention(non-local)</a></p>
<p id="CC-Attention-toc" style="margin-left:80px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#CC-Attention">CC-Attention</a></p>
<p id="DANet-toc" style="margin-left:80px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#DANet">DANet</a></p>
<p id="%E5%AF%B9%E6%AF%94%E5%AE%9E%E9%AA%8C5%20%E5%A4%8D%E6%9D%82%E5%BA%A6-toc" style="margin-left:40px;"><a href="https://blog.csdn.net/qq_36268755/article/details/106542753#%E5%AF%B9%E6%AF%94%E5%AE%9E%E9%AA%8C5%20%E5%A4%8D%E6%9D%82%E5%BA%A6">对比实验5 复杂度</a></p>
<hr id="hr-toc">
<h1 id="%E4%B8%BB%E8%A6%81%E8%B4%A1%E7%8C%AE">主要贡献</h1>
<p style="text-indent:33px;">提出了一种新的关系上下文方法,该方法根据粗分割结果学习<strong>像素</strong>与<strong>对象区域</strong>特征之间的关系来增强像素特征的描述。</p>
<p style="text-indent:33px;">特点:</p>
<p style="text-indent:33px;">1.与之前的关系上下文方法(如non-local、dual attention、ocnet等)不同的是对对象进行了区分,学习了像素-对象区域之间的关系</p>
<p style="text-indent:33px;">2.可以理解为一种对粗分割的后操作处理</p>
<p style="text-align:center;"><img alt="" height="332" src="https://beijingoptbbs.oss-cn-beijing.aliyuncs.com/cs/5606289-9730ec99fba04b51e5fdf6f3097022b5.png" width="825"></p>
<h1 id="%E6%95%B4%E4%BD%93%E7%BB%93%E6%9E%84">整体结构</h1>
<p style="text-indent:33px;"><img alt="" height="191" src="https://beijingoptbbs.oss-cn-beijing.aliyuncs.com/cs/5606289-4450cde8871b813be14fa57075ccf754.png" width="782"></p>
<ol><li style="margin-left:0in;"><span style="color:#000000;">将上下文像素划分为一组软对象区域,每个软对象区域对应一个类别,即从深层网络计算出的粗分割。</span></li><li style="margin-left:0in;"><span style="color:#000000;">通过聚合相应对象区域中的像素表示作为每个对象区域的表示。 </span></li><li style="margin-left:0in;"><span style="color:#000000;">使用对象上下文表示扩展每个像素的表示。 </span><span style="color:#000000;">OCR</span><span style="color:#000000;">是所有对象区域表示的加权聚合,其加权根据像素和对象区域之间的关
分享到 :
0 人收藏
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:3875789
帖子:775174
精华:0
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP