当AI被“赋予性格”,它眼中的男女会截然不同吗?——米兰理工大学揭示性格设定放大性别偏见的实证发现
2026年4月,意大利米兰理工大学联合苹果与谷歌研究人员在预印本平台arXiv发布重磅实证研究(arXiv:2604.23600v1),首次系统揭示:AI模型的性格设定(personality assignment)并非中性装饰,而是显著调制其性别刻板表达的核心变量——其影响力甚至超过AI角色本身的性别标签。该研究覆盖六款主流大模型(含GPT-4、Claude 3、Llama 3等)、英语与印地语双语环境,生成超23400个职业情境短文样本,构成迄今该领域规模最大、维度最细的跨模型、跨语言、跨文化偏见测绘工程。
研究采用心理学黄金标准框架:以HEXACO六维亲社会性格(诚实谦逊、情绪性、外向性等)与‘黑暗三元组’(马基雅维利主义、自恋、精神病态)为干预变量,对50种典型职业(如护士vs焊接工)进行第一人称叙事生成。结果表明,当AI被设为‘高尽责性’性格时,对女性职业者描述更强调‘细致’‘耐心’,而对男性则突出‘决断’‘权威’;而当启用‘高马基雅维利主义’设定后,对男性角色的策略性描写激增47%,对女性角色却同步强化‘易受操控’隐喻——这种不对称放大效应在印地语样本中尤为尖锐。
该发现直指当前AI产品设计的重大盲区:全球主流AI助手(如Siri、Gemini Assistant、小爱同学)普遍采用预设性格人格化策略以提升用户黏性,但其训练数据与提示工程几乎从未对性格-性别交互效应进行鲁棒性校验。更严峻的是,研究证实‘无性格设定’的基础模型反而呈现最低性别偏差水平,暗示当前人格化浪潮可能正以用户体验为名,悄然加固结构性偏见。
行业影响已迅速显现:欧盟AI办公室于5月初紧急更新《高风险AI系统合规指南》,新增‘性格参数影响评估’强制条款;苹果公司内部信源透露,其Siri下一代人格引擎已暂停上线,转向米兰团队合作开展偏差消融实验。展望未来,该研究推动‘可解释性格接口’(Explainable Personality Interface, EPI)成为新研发范式——即允许用户实时查看并调节AI性格参数对输出倾向的影响热力图。技术伦理不再停留于事后审计,而须前置嵌入人格化设计的每一行代码。这标志着AI从‘能说’迈向‘慎说’的关键分水岭。