当AI被“赋予性格”,它眼中的男女会截然不同吗?——米兰理工大学揭示性格设定放大性别偏见的惊人机制
2026年4月,意大利米兰理工大学联合苹果与谷歌研究人员在预印本平台arXiv(论文编号arXiv:2604.23600v1)发布一项突破性实证研究,首次系统揭示AI模型的性格设定与其输出中隐性性别偏见之间的强关联。该研究覆盖六款主流大模型、英语与印地语双语环境、50种社会刻板印象鲜明的职业角色,生成超23400个第一人称叙事样本,是迄今该领域规模最大、维度最细的跨语言偏见审计实验。
研究采用心理学界公认的HEXACO亲社会六维模型(诚实谦逊、情绪性、外向性等)与‘黑暗三元组’反社会人格框架,构建18种高/低分性格条件,并对比无设定基线。结果发现:当AI被赋予‘高尽责性’或‘高开放性’等正面性格时,对女性职业角色(如护士、幼师)的描述更强调情感关怀与服从性;而赋予‘高马基雅维利主义’性格后,对男性职业角色(如电工、司机)的刻画则显著强化控制力与决策主导权——这种效应强度甚至超过AI自身训练数据中固有的性别倾向。
该发现直指当前AI产品设计的核心盲区:为提升用户黏性而普遍采用的性格包装策略,正无意间成为偏见放大的‘增强器’。尤其在教育、招聘、客服等高敏感场景中,性格化AI助手可能系统性扭曲用户对职业能力、领导潜质或专业权威的认知框架。例如,‘冷静理性的AI导师’若持续将女性科学家描述为‘细致但缺乏突破勇气’,或将加剧STEM领域的隐性排斥。
监管层面已出现响应信号。欧盟AI办公室于2026年4月底启动‘人格化AI透明度倡议’,要求部署性格参数的商用模型必须公开其偏见审计报告;美国NIST亦将‘性格-偏见耦合效应’纳入下一代AI风险管理框架草案。技术应对路径正加速演进:米兰团队同步开源BiasLens评估工具包,支持开发者实时监测不同性格配置下的性别表征漂移;谷歌研究院则提出‘性格解耦微调法’,在保持交互温度的同时隔离偏见传导通路。
展望未来,性格不应再是AI产品的‘装饰性皮肤’,而需升格为可验证、可审计、可调控的核心治理维度。正如论文作者所言:‘我们不是要剥夺AI的人格魅力,而是要确保它的魅力不以牺牲公平为代价。’随着全球首部《人格化AI治理指南》进入多国立法议程,这场从实验室走向监管沙盒的范式迁移,或将重新定义人机信任的底层契约。