新媒体社会责任下ChatGPT的内容生产与信息责任分析
报告字数:15697字
报告页数:19页
摘要
在ChatGPT广泛应用于各领域的同时,也引发了一系列现实问题与挑战。一方面,虽然ChatGPT是经过预训练和微调的人工智能模型,但它并不具备真正地理解能力,而是通过学习大量文本数据来产生回答。随着越来越多用户和研究者的实际交互和评估测试,ChatGPT“一本正经地胡说八道”的特质逐渐暴露出来,人们开始重新审视ChatGPT内容生产的质量与能力。另一方面,ChatGPT的拟人性特征赋予其一定的“主体”意义,但相关法律法规与技术更迭的速度出现错位,人工智能的“主体承认”问题尚未形成定论,Cha...
在ChatGPT广泛应用于各领域的同时,也引发了一系列现实问题与挑战。一方面,虽然ChatGPT是经过预训练和微调的人工智能模型,但它并不具备真正地理解能力,而是通过学习大量文本数据来产生回答。随着越来越多用户和研究者的实际交互和评估测试,ChatGPT“一本正经地胡说八道”的特质逐渐暴露出来,人们开始重新审视ChatGPT内容生产的质量与能力。另一方面,ChatGPT的拟人性特征赋予其一定的“主体”意义,但相关法律法规与技术更迭的速度出现错位,人工智能的“主体承认”问题尚未形成定论,ChatGPT是否为“责任主体”,其产生的安全风险该由谁来负责成为当下讨论的焦点。通过梳理现有研究发现,有关ChatGPT问题的讨论以思辨研究为主,鲜少有对ChatGPT生成内容的实证研究分析。本报告则以ChatGPT生成的内容实例为研究对象,结合内容质量与新媒体社会责任的评判指标,从定量的角度来评估和分析ChatGPT生成的文本质量、信息准确性以及遵循规范的程度,分析ChatGPT在内容生成方面的优势和不足,并针对其中的问题提出具体的解决方案。
<<
>>
作者简介
徐明华: 徐明华,华中科技大学新闻与信息传播学院教授,博士生导师,主要研究方向为包括国际传播、跨文化传播、形象传播与人工智能技术创新应用。
晏栗群: 晏栗群,华中科技大学新闻与信息传播学院2023级硕士研究生,主要研究方向为国际传播、计算传播。
相关报告