大语言模型的价值取向

来源:     时间:2026-04-16     阅读:

  • 分享

光华讲坛——社会名流与企业家论坛第6894期

主题大语言模型的价值取向

主讲人复旦大学经济学院副院长 许闲教授

主持人金融学院保险与精算系系主任 王伊琳副教授

时间4月18日14:30-16:30

地点光华校区住友苑2楼会议室

主办单位金融学院、中国金融研究院 科研处

主讲人简介

许闲,复旦大学经济学院教授、副院长、风险管理与保险学系主任,复旦大学保险应用创新研究院副院长。国家社会科学基金重大项目首席专家。兼任中国保险学会副会长、中国社会保障学会商保分会副会长、中国医疗保险研究会商业健康险专委会副主委、全国保险专业学位研究生教育指导委员会委员,以及Disaster Prevention and Management、《保险研究》等国内外重要期刊的编委。主要聚焦保险制度在国家治理与民生福祉中的基础性作用以及外部变革对其运行机制的影响,围绕健康和养老保险经济学、数字金融/保险和科学智能(AI for Science)、消费者权益保护等方向展开研究。研究成果发表或接收于Journal of Development Economics、Journal of Risk and Insurance、Journal of Economic Dynamics and Control、Journal of Banking and Finance、Insurance: Mathematics and Economics、《金融研究》《保险研究》等经济、金融、保险、精算学科顶尖学术期刊,以及ICCV等人工智能国际顶级会议;为保险学科国际权威参考书目Handbook of Insurance撰写其首次收录的中国议题完整章节。主持国家社会科学基金重大项目、国家自然科学基金面上项目及多项省部级重点研究项目和重大横向委托课题。入选上海市东方英才拔尖项目,获上海市哲学社会科学优秀成果奖、工信部网络安全保险典型服务方案、Swiss Re Institute–AXA Research Fund Joint Risk Resilience Partnership全球第一名等重要荣誉。

内容提要

本次讲座将围绕人工智能的蓬勃发展在当下为治理的效率与公平间带来了新的挑战这一研究展开。研究表明,与传统机器学习模型迥异的是,大语言模型基于庞大且难以直接观测的语料库进行训练,可能隐含着影响决策公平性的价值偏好。因此,如何识别并调控这些潜在偏好,成为负责任地应用人工智能技术的关键挑战。

本研究选取保险定价作为实证研究场景,在此领域中,分配效率与社会公平之间的张力呈现出一定的结构性特征。我们构建了一个实验性定价流程,并针对十种主流大语言模型开展了160,000次定价模拟实验,从而得以系统剖析模型行为及其关键影响因素。结果显示:第一,大语言模型在价值取向上存在差异,部分模型倾向于维护群体层面的公平性,而另一些模型则更注重保持个体风险评估的一致性;第二,效率与公平的权衡关系并非普遍存在,而是仅在高能力模型中显现,进而形成了实证性的效率-公平边界;第三,通过数据组织与提示词设计等手段,可以引导大语言模型的行为沿此边界发展,但也可能在不经意间损害预测准确性与公平性。

本研究认为,大语言模型的商业决策并非价值中立,而设计合理的治理机制在塑造效率与公平的权衡中发挥至关重要的作用。

主讲人 复旦大学经济学院副院长 许闲教授 时间 4月18日14:30-16:30
地点 光华校区住友苑2楼会议室 主办单位 金融学院、中国金融研究院 科研处