当AI被“赋予性格”,它眼中的男女会截然不同吗?——米兰理工大学揭示性格设定放大性别偏见
2026年4月,意大利米兰理工大学联合苹果与谷歌研究人员在arXiv平台发布重磅实证研究(arXiv:2604.23600v1),首次系统揭示AI模型的性格设定与其输出中性别刻板印象之间的强关联。该研究覆盖六款主流大模型、英语与印地语双语环境、50种社会职业角色及18种心理学定义的性格维度(含HEXACO六维积极特质与‘黑暗三元组’负面特质),共生成23400个第一人称叙事样本,是迄今规模最大、设计最严谨的AI性格-性别偏见交叉研究。
研究发现:AI的性格设定对性别表征的影响,显著超过其预设角色性别本身——例如,当AI以‘高马基雅维利主义’性格扮演护士时,其叙述更倾向强调顺从与情绪劳动;而以‘高尽责性’性格扮演建筑工人时,则更突出权威与决策主导性。这种偏差并非随机,而是稳定复现于多模型、多语言、多职业组合中,表明其根植于当前大模型训练范式中隐含的价值权重与语料分布。
该成果对AI产品设计与监管具有直接警示意义。当前全球数以亿计的AI助手、教育代理、客服系统均依赖性格化设定提升用户体验,但研究证实,此类‘拟人化包装’可能无意中强化现实社会中的结构性偏见。尤其在医疗、教育、招聘等高敏感场景中,AI若以‘冷静理性’性格描述男性医生、以‘温暖共情’性格描述女性护士,将加剧职业性别隔离的认知固化。更值得警惕的是,印地语样本中偏见强度平均高出英语样本17%,凸显多语言AI治理的紧迫性与复杂性。
展望未来,研究团队呼吁建立‘性格-偏见影响评估框架’,要求AI部署方在启用性格参数前完成跨文化、跨职业的偏见压力测试。产业界亦需推动开源性格提示词库的公平性审计,并探索动态去偏机制——例如在生成过程中实时校准性别属性权重。监管层面,欧盟《人工智能法案》已将‘高风险系统中的系统性歧视’列为强制合规项,本研究为执法提供了可量化的技术判据。长远看,真正的AI人性化不应止于性格拟态,而在于构建能反思自身偏见、并主动协商价值立场的对话主体。