在ChatGPT广泛应用于各领域的同时,也引发了一系列现实问题与挑战。一方面,虽然ChatGPT是经过预训练和微调的人工智能模型,但它并不具备真正地理解能力,而是通过学习大量文本数据来产生回答。随着越来越多用户和研究者的实际交互和评估测试,ChatGPT“一本正经地胡说八道”的特质逐渐暴露出来,人们开始重新审视ChatGPT内容生产的质量与能力。另一方面,ChatGPT的拟人性特征赋予其一定的“主体”意义,但相关法律法规与技术更迭的速度出现错位,人工智能的“主体承认”问题尚未形成定论,ChatGPT是否为“责任主体”,其产生的安全风险该由谁来负责成为当下讨论的焦点。
通过梳理现有研究发现,有关ChatGPT问题的讨论以思辨研究为主,鲜少有对ChatGPT生成内容的实证研究分析。本报告则以ChatGPT生成的内容实例为研究对象,结合内容质量与新媒体社会责任的评判指标,从定量的角度来评估和分析ChatGPT生成的文本质量、信息准确性以及遵循规范的程度,分析ChatGPT在内容生成方面的优势和不足,并针对其中的问题提出具体的解决方案。