咨询与建议

限定检索结果

文献类型

  • 35 篇 期刊文献
  • 1 篇 会议

馆藏范围

  • 36 篇 电子文献
  • 0 种 纸本馆藏

日期分布

学科分类号

  • 28 篇 工学
    • 21 篇 计算机科学与技术...
    • 21 篇 软件工程
    • 8 篇 电气工程
    • 5 篇 控制科学与工程
    • 4 篇 材料科学与工程(可...
    • 3 篇 信息与通信工程
    • 2 篇 机械工程
    • 2 篇 化学工程与技术
    • 1 篇 力学(可授工学、理...
    • 1 篇 电子科学与技术(可...
    • 1 篇 交通运输工程
    • 1 篇 环境科学与工程(可...
    • 1 篇 食品科学与工程(可...
    • 1 篇 网络空间安全
  • 7 篇 医学
    • 7 篇 临床医学
    • 1 篇 基础医学(可授医学...
    • 1 篇 公共卫生与预防医...
  • 5 篇 理学
    • 2 篇 化学
    • 1 篇 数学
    • 1 篇 物理学
    • 1 篇 地质学
  • 4 篇 管理学
    • 4 篇 管理科学与工程(可...
  • 1 篇 教育学
    • 1 篇 教育学

主题

  • 3 篇 deep learning
  • 3 篇 自然语言处理
  • 2 篇 pre-trained mode...
  • 2 篇 text classificat...
  • 2 篇 文本分类
  • 2 篇 大型语言模型
  • 2 篇 命名实体识别
  • 2 篇 natural language...
  • 1 篇 依存分析
  • 1 篇 distributed repr...
  • 1 篇 transformer
  • 1 篇 颗粒堆积成孔
  • 1 篇 probabilistic te...
  • 1 篇 并发症
  • 1 篇 阿仑膦酸钠片
  • 1 篇 水泥中氯离子
  • 1 篇 陶瓷发泡
  • 1 篇 微粒
  • 1 篇 unified model
  • 1 篇 图模型

机构

  • 14 篇 复旦大学
  • 4 篇 school of comput...
  • 3 篇 shanghai key lab...
  • 2 篇 school of comput...
  • 2 篇 shanghai key lab...
  • 2 篇 长庆油田职工医院
  • 1 篇 school of comput...
  • 1 篇 小米科技ai实验室
  • 1 篇 中国科学院自动化...
  • 1 篇 武汉理工大学
  • 1 篇 nyu shanghai and...
  • 1 篇 流利说硅谷人工智...
  • 1 篇 水路公路交通安全...
  • 1 篇 核燃料及材料国家...
  • 1 篇 西安长庆油田职工...
  • 1 篇 安徽工程大学
  • 1 篇 北京大学
  • 1 篇 濮阳市油田总医院
  • 1 篇 pazhou laborator...
  • 1 篇 苏州大学

作者

  • 14 篇 邱锡鹏
  • 7 篇 xipeng qiu
  • 6 篇 黄萱菁
  • 3 篇 邱玺鹏
  • 2 篇 颜航
  • 2 篇 邢志亮
  • 2 篇 孙天祥
  • 2 篇 xuanjing huang
  • 2 篇 hang yan
  • 2 篇 qipeng guo
  • 1 篇 江涛
  • 1 篇 万小军
  • 1 篇 赵妍妍
  • 1 篇 周伟正
  • 1 篇 dai ning
  • 1 篇 刘挺
  • 1 篇 石玉琳
  • 1 篇 冯琨华
  • 1 篇 sun tianxiang
  • 1 篇 邢忠虎

语言

  • 26 篇 中文
  • 10 篇 英文
检索条件"作者=Xipeng qiu"
36 条 记 录,以下是1-10 订阅
排序:
ChatGPT: potential, prospects, and limitations
收藏 引用
Frontiers of Information Technology & Electronic Engineering 2024年 第1期25卷 6-11页
作者: Jie ZHOU Pei KE xipeng qiu Minlie HUANG Junping ZHANG School of Computer Science Fudan UniversityShanghai 200433China Department of Computer Science and Technology Tsinghua UniversityBeijing 100084China Shanghai Key Laboratory of Intelligent Information Processing Shanghai 200433China
Recently,OpenAI released Chat Generative Pre-trained Transformer(ChatGPT)(Schulman et al.,2022)(https://***),which has attracted considerable attention from the industry and academia because of its impressive *** is t... 详细信息
来源: 维普期刊数据库 维普期刊数据库 同方期刊数据库 同方期刊数据库 评论
CPT: a pre-trained unbalanced transformer for both Chinese language understanding and generation
收藏 引用
Science China(Information Sciences) 2024年 第5期67卷 43-55页
作者: Yunfan SHAO Zhichao GENG Yitao LIU Junqi DAI Hang YAN Fei YANG Zhe LI Hujun BAO xipeng qiu School of Computer Science Fudan University Shanghai Key Laboratory of Intelligent Information Processing Fudan University Zhejiang Lab
In this paper, we take the advantage of previous pre-trained models(PTMs) and propose a novel Chinese pre-trained unbalanced transformer(CPT). Different from previous Chinese PTMs, CPT is designed to utilize the share... 详细信息
来源: 同方期刊数据库 同方期刊数据库 评论
探索中文预训练模型的混合粒度编码和IDF遮蔽
收藏 引用
中文信息学报 2024年 第1期38卷 57-64页
作者: 邵云帆 孙天祥 邱锡鹏 复旦大学计算机科学技术学院 上海200433
目前大多数中文预训练语言模型采用字级别编码,因为字符级编码序列长而产生大量计算开销。词级别编码尽管能够缓解这一问题,但也会带来其他问题,如词典外词、数据稀疏等。针对中文不同粒度的编码,该文提出使用混合粒度编码的中文预训练... 详细信息
来源: 维普期刊数据库 维普期刊数据库 同方期刊数据库 同方期刊数据库 评论
大型语言模型:原理、实现与发展
收藏 引用
计算机研究与发展 2024年 第2期61卷 351-361页
作者: 舒文韬 李睿潇 孙天祥 黄萱菁 邱锡鹏 复旦大学计算机科学技术学院 上海200433
近年来,大型语言模型的出现和发展对自然语言处理和人工智能领域产生了变革性影响.随着不断增大模型参数量和训练数据量,语言模型的文本建模困惑度以可预测的形式降低,在各类自然语言处理任务上的表现也持续提升.因此,增加语言模型的参... 详细信息
来源: 维普期刊数据库 维普期刊数据库 同方期刊数据库 同方期刊数据库 评论
InstructGPT在命名实体识别任务中的表现和挑战
收藏 引用
中文信息学报 2024年 第1期38卷 74-85页
作者: 孙瑜 颜航 邱锡鹏 王定 牟小峰 黄萱菁 复旦大学计算机科学技术学院 上海200433 美的集团AI创新中心 广东佛山528311
当前,关于大规模语言模型,例如,InstructGPT的研究主要聚焦在自由形式生成任务上,而忽略了在结构化抽取任务上的探索。为了让未来的工作在结构化抽取任务上有一个全面的认知,该文在零样本和少样本设定下,全面分析了InstructGPT在基础的... 详细信息
来源: 维普期刊数据库 维普期刊数据库 同方期刊数据库 同方期刊数据库 评论
利用两样本孟德尔随机化方法探究复方口服避孕药与乳腺癌发病风险的关系
收藏 引用
现代肿瘤医学 2024年 第11期32卷 2020-2024页
作者: 邓佳琳 江涛 石玉琳 邱锡鹏 许家佗 上海中医药大学中医学院 上海201203 复旦大学计算机学院 上海200433
目的:利用两样本孟德尔随机化方法探究评估抗复方口服避孕药(combined oral contraceptive,COC)对乳腺癌风险的影响。方法:对基于与COC高度相关的单核苷酸多态性的全基因组关联研究的合并数据进行二次数据分析,并选择雌激素和孕激素水... 详细信息
来源: 维普期刊数据库 维普期刊数据库 同方期刊数据库 同方期刊数据库 评论
Competition for gradient-free tuning of large language models:approaches, results, current challenges and future directions
收藏 引用
National Science Review 2023年 第6期10卷 16-19页
作者: Tingfeng Cao Liang Chen Dixiang Zhang Tianxiang Sun Zhengfu He xipeng qiu Xing Xu Hai Zhang School of Software Engineering South China University of Technology School of Computer Science Fudan University School of Computer Science and Engineering University of Electronic Science and Technology of China Pazhou Laboratory (Huangpu) School of Mathematics Northwest University
PROBLEM Recent years have witnessed the rapid progress of self-supervised language models (LMs)[1],especially large language models (LLMs)[2].LLMs not only achieved state-of-the-art performance on many natural languag...
来源: 同方期刊数据库 同方期刊数据库 评论
Syntax-guided text generation via graph neural network
收藏 引用
Science China(Information Sciences) 2021年 第5期64卷 67-76页
作者: Qipeng GUO xipeng qiu Xiangyang XUE Zheng ZHANG Shanghai Key Laboratory of Intelligent Information Processing School of Computer ScienceFudan University NYU Shanghai and AWS Shanghai AI Lab
Text generation is a fundamental and important task in natural language processing. Most of the existing models generate text in a sequential manner and have difficulty modeling complex dependency structures. In this ... 详细信息
来源: 同方期刊数据库 同方期刊数据库 评论
Dual-axial self-attention network for text classification
收藏 引用
Science China(Information Sciences) 2021年 第12期64卷 80-90页
作者: Xiaochuan ZHANG xipeng qiu Jianmin PANG Fudong LIU Xingwei LI State Key Laboratory of Mathematical Engineering and Advanced Computing Shanghai Key Laboratory of Intelligent Information Processing Fudan University School of Computer Science Fudan University
Text classification is an important task in natural language processing and numerous studies aim to improve the accuracy and efficiency of text classification models. In this study, we propose an effective and efficie... 详细信息
来源: 同方期刊数据库 同方期刊数据库 评论
Pre-trained models for natural language processing: A survey
收藏 引用
Science China(Technological Sciences) 2020年 第10期63卷 1872-1897页
作者: qiu xipeng SUN TianXiang XU YiGe SHAO YunFan DAI Ning HUANG XuanJing School of Computer Science Fudan UniversityShanghai 200433China Shanghai Key Laboratory of Intelligent Information Processing Shanghai 200433China
Recently, the emergence of pre-trained models(PTMs) has brought natural language processing(NLP) to a new era. In this survey, we provide a comprehensive review of PTMs for NLP. We first briefly introduce language rep... 详细信息
来源: 维普期刊数据库 维普期刊数据库 同方期刊数据库 同方期刊数据库 评论