咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >大模型幻觉:人机传播中的认知风险与共治可能 收藏

大模型幻觉:人机传播中的认知风险与共治可能

The Hallucinations of Large Language Models:Perceived Risk and the Possibility of Co-governance in Human-computer Communication

作     者:张铮 刘晨旭 ZHANG Zheng;LIU Chen-xu

作者机构:清华大学新闻与传播学院北京100084 

出 版 物:《苏州大学学报(哲学社会科学版)》 (Journal of Soochow University(Philosophy & Social Science Edition))

年 卷 期:2024年第45卷第5期

页      面:171-180页

核心收录:

学科分类:050302[文学-传播学] 05[文学] 0503[文学-新闻传播学] 

基  金:国家社会科学基金艺术学项目“新型数字文化消费对Z世代生活方式的影响研究”(项目编号:22BH156)的阶段性成果 

主  题:大模型幻觉 认知风险 知识生产 人机协同治理 人机传播 

摘      要:大模型在人机交互中可能产生“幻觉,即生成的内容看似合理但与事实相悖。幻觉问题的产生并非偶然,由技术发展的局限性和用户输入的提示词与情境等共同所致。大模型幻觉对人的认知和信息传播构成风险,并对“数据范式下的知识生产和隐性知识的价值显露带来挑战;同时,认知依赖下人机交互影响着人类的思维模式和判断力。为应对这些挑战,可通过提高训练数据的质量并明晰治理标准、增强模型透明性和可信性、实现有监督的机器动态自治等策略完善大模型未来发展方向。大模型幻觉无法完全避免,从另一个角度看,幻觉现象在创造性领域可能激发创新思维,为人类文化与艺术的发展注入新的活力与动力。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分