研究探索了使用生成式人工智能进行支付应用调查的潜力和陷阱
本文包含AI辅助创作内容
日本银行货币与经济研究所(IMES)与韩国银行合作发布的一项新研究探讨了使用生成式人工智能(GenAI)模拟支付应用用户调查的可行性与局限性。这项题为《支付应用调查的生成式AI:AI对隐私与技术的看法》的讨论论文,以Brits和Jonker(2023)在荷兰进行的实际调查为基准,评估了ChatGPT在模拟用户对隐私和技术收益认知方面的表现。
研究人员通过设计具有不同人口统计特征(如年龄、性别、用户身份)的“生成代理”,并采用角色、任务、格式(RTF)的提示方法,模拟了对移动支付应用收益和风险问题的回答。
研究结果表明,生成式AI能够复现真实人类调查中的几个关键模式。例如,被归类为更关注隐私的代理往往对支付应用评价更低,感知到的风险更高,这与隐私计算理论一致。更重要的是,ChatGPT无需明确指令,就能自然反映出用户和非用户之间的显著差异:用户认为收益更高、风险更低。
然而,该研究也揭示了生成式AI作为调查工具的明显局限性。最突出的是,AI生成回答的变异度(以标准差衡量)远低于人类调查,这意味着它难以捕捉人类观点的全范围,可能忽略少数派意见。此外,研究观察到明显的偏差:极大比例的生成代理被归类为“隐私基本教义派”,显示出对隐私问题的高度敏感,这与实际人群中的分布不符。即使通过调整“温度”参数或增加更详细的人物属性(如收入、教育水平)来试图增加多样性,效果也十分有限。
研究人员总结认为,生成式AI有潜力作为辅助工具,用于调查前期的模拟、问题构思和设计,提供成本和时间效率。但其固有的回答变异度低和存在潜在偏差的局限性,使其目前无法完全替代真实人类受访者。研究者特别提醒政策制定者,若完全依赖AI生成的数据,可能因无法充分代表多样化(尤其是边缘)群体的观点而得出误导性结论。







请先 登录后发表评论 ~