咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >类ChatGPT生成式人工智能对个人信息保护的挑战及应对 收藏

类ChatGPT生成式人工智能对个人信息保护的挑战及应对

作     者:朱荣荣 

作者机构:中国矿业大学人文与艺术学院 

出 版 物:《重庆大学学报(社会科学版)》 (Journal of Chongqing University(Social Science Edition))

年 卷 期:2023年

核心收录:

学科分类:0301[法学-法学] 03[法学] 030105[法学-民商法学(含:劳动法学、社会保障法学)] 030103[法学-宪法学与行政法学] 

主  题:生成式人工智能 ChatGPT 个人信息 风险预防 侵权责任 

摘      要:以ChatGPT为代表的生成式人工智能是指能够根据用户指令生成文字、图片、视频等相应内容的人工智能。个人信息是生成式人工智能的基础,类ChatGPT生成式人工智能在模型训练、模型生成,以及模型优化等各个阶段均需要处理大量的个人信息,同时也对传统的个人信息保护规则带来了一定的冲击。在信息收集阶段,生成式人工智能可能虚化知情同意规则,侵犯信息主体的隐私权。在信息利用阶段,生成式人工智能可能冲击目的限制原则、公开透明原则等基本的个人信息处理规则,提高个人信息泄露的风险。在信息生成阶段,生成式人工智能可能产生虚假信息以及歧视性信息。在类ChatGPT生成式人工智能变革式发展背景下,亟须审视个人信息保护的基本理念,寻求其在生成式人工智能领域的应然价值取向。通过考察比较法以及我国个人信息保护理念的发展脉络可知,个人信息保护或个人信息利用的单极性思维难以适应数字社会的现实需要,而个人信息保护与个人信息利用的动态平衡则是妥当平衡各方主体利益的理想路径。类ChatGPT生成式人工智能可以作为基础模型被广泛应用于教育、金融、科技等诸多领域,鉴此,应当协调推进个人信息保护与生成式人工智能发展的平衡兼顾。个人信息与信息主体密切相关,个人信息一旦被泄露或滥用可能使信息主体面临较高的风险,因此需要构建事前风险预防与事后损害赔偿的协同救济机制,在实现个人信息全生命周期保护的基础上,促进生成式人工智能的良性发展。就风险预防机制而言,需要在风险识别基础上完善识别化措施,并赋予信息主体限制处理权、算法解释权,全方位遏制潜在的风险。责任主体的确定是损害赔偿的基础,应由生成式人工智能服务提供者与使用者证明其与个人信息侵权损害不存在因果关系,否则需要承担连带赔偿责任。在归责原则方面,可以根据被侵害的对象为个人一般信息或个人敏感信息,分别适用过错推定责任原则或无过错责任原则。为了更好地救济信息主体所受的损害,除了采取财产损害赔偿与精神损害赔偿等传统的补偿性赔偿外,还应当引入惩罚性赔偿,最大程度保障信息主体的受损权益。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分