生成式人工智能在快速发展的同时也产生了严峻的隐私泄露风险,严重影响了用户的隐私披露行为甚至大模型采纳意愿。了解哪些因素会影响用户与生成式人工智能交互过程中的隐私披露意愿,有利于加强个人隐私保护并改进大语言模型,优化生成式人工智能应用,为其背景下用户隐私保护提供借鉴。本文基于SOR理论和隐私计算理论,使用结构方程模型验证变量间的路径系数和显著性。结论显示,拟人化、感知有用性、社会影响和隐私政策法规正向影响用户感知收益,隐私关注和隐私侵犯经历正向影响感知风险,感知收益正向影响用户隐私披露意愿,但感知风险和用户隐私披露之间并无显著关系。