咨询与建议

限定检索结果

文献类型

  • 4 篇 学位论文
  • 1 篇 期刊文献

馆藏范围

  • 5 篇 电子文献
  • 0 种 纸本馆藏

日期分布

学科分类号

  • 5 篇 工学
    • 4 篇 控制科学与工程
    • 4 篇 计算机科学与技术...
    • 4 篇 软件工程
    • 3 篇 机械工程
  • 4 篇 管理学
    • 4 篇 管理科学与工程(可...
  • 1 篇 经济学
    • 1 篇 应用经济学
  • 1 篇 理学
    • 1 篇 数学
    • 1 篇 统计学(可授理学、...

主题

  • 5 篇 分布外样本检测
  • 1 篇 神经网络鲁棒性
  • 1 篇 异常样本
  • 1 篇 对抗攻击
  • 1 篇 多标签图像分类
  • 1 篇 弱监督学习
  • 1 篇 预训练模型库
  • 1 篇 鲁棒性分析
  • 1 篇 模型选择
  • 1 篇 全监督学习
  • 1 篇 压制训练
  • 1 篇 对抗训练
  • 1 篇 分布外样本生成
  • 1 篇 深度神经网络
  • 1 篇 对抗鲁棒性
  • 1 篇 集成检测框架

机构

  • 1 篇 湖南大学
  • 1 篇 广州大学
  • 1 篇 中国科学院大学
  • 1 篇 天津大学
  • 1 篇 计算机科学国家重...
  • 1 篇 重庆大学
  • 1 篇 中国科学院软件研...

作者

  • 1 篇 王帅
  • 1 篇 刘杰
  • 1 篇 叶丹
  • 1 篇 马霄龙
  • 1 篇 窦文生
  • 1 篇 李硕
  • 1 篇 薛峰
  • 1 篇 周志阳
  • 1 篇 亢良伊
  • 1 篇 周玲军
  • 1 篇 王磊

语言

  • 5 篇 中文
检索条件"主题词=分布外样本检测"
5 条 记 录,以下是1-10 订阅
排序:
谛听:面向鲁棒分布外样本检测的半监督对抗训练方法
收藏 引用
软件学报 2024年 第6期35卷 2936-2950页
作者: 周志阳 窦文生 李硕 亢良伊 王帅 刘杰 叶丹 中国科学院软件研究所 北京100190 中国科学院大学 北京100049 计算机科学国家重点实验室(中国科学院软件研究所) 北京100190 中国科学院大学南京学院 江苏南京211135
检测训练集分布分布(out-of-distribution,OOD)样本对于深度神经网络(deep neural network,DNN)分类器在开放环境的部署至关重要.检测OOD样本可以视为一种二分类问题,即把输入样本分类为“分布内(in-distribution,ID)”类或“... 详细信息
来源: 维普期刊数据库 维普期刊数据库 同方期刊数据库 同方期刊数据库 评论
不同监督强度下的多标签分布外样本检测算法研究
不同监督强度下的多标签分布外样本检测算法研究
收藏 引用
作者: 王磊 重庆大学
学位级别:硕士
随着图像分类模型在开放世界的广泛应用,分布样本的干扰已成为制约模型部署的主要挑战之一。现有相关研究大多聚焦于单标签图像分类背景下的分布外样本检测任务,然而多标签图像更能准确反映与描述真实场景,该图像分类背景下的分布... 详细信息
来源: 同方学位论文库 同方学位论文库 评论
基于模型库增强的分布外样本检测
基于模型库增强的分布外样本检测
收藏 引用
作者: 薛峰 湖南大学
学位级别:硕士
分布(Out-Of-Distribution,OOD)样本检测,即识别输入是否来自不同于训练样本的新分布,是现实世界中构建可靠机器学习系统的关键任务之一。近年来,利用预训练模型进行OOD检测的方法表现出了良好的性能,并且可以被推广到超大规模检测任... 详细信息
来源: 同方学位论文库 同方学位论文库 评论
异常样本对DNN模型鲁棒性的影响研究
异常样本对DNN模型鲁棒性的影响研究
收藏 引用
作者: 周玲军 天津大学
学位级别:硕士
基于深度神经网络(DNN)模型的智能系统在无人驾驶、人脸识别等多领域不断落地,改变着我们的日常生活。然而,DNN模型的内在决策逻辑尚不明朗,可解释性和鲁棒性的相关研究仍不充分,阻碍了其在安全攸关领域的进一步应用。因此,对于DNN模型... 详细信息
来源: 同方学位论文库 同方学位论文库 评论
通过生成辅助样本解决神经网络分布高置信度问题
通过生成辅助样本解决神经网络分布外高置信度问题
收藏 引用
作者: 马霄龙 广州大学
学位级别:硕士
随着深度学习技术的迅猛发展,计算机在图像分类等任务上不断取得新的突破。然而,神经网络在训练过程中基于封闭世界假设,认为实际输入的样本始终与训练样本的类别一致。导致在实际应用中,一旦遇到未知的类别,即分布(OOD,Out-of-Distri... 详细信息
来源: 同方学位论文库 同方学位论文库 评论