<p class="ql-block"> 算法歧视</p><p class="ql-block"> 万亚平</p><p class="ql-block"> 年初去苏州开会,在网上12306同时订购了往返高铁票。早上进站时就被人脸识别拦住,无法识别,如此三次,结果还是从一旁人工检票口用身份证进站。</p><p class="ql-block"> 上车后找到8车7座C号。这是靠走廊的座位。边上还有A、B号,其中A号靠窗。靠走廊看走廊吧,看窗外那叫觊望。况走廊里还有不少站着的,C号比站票(没号)强。晚上返程,票是7车7座A号。终有了A号,靠窗的。问题又来了,夜晚,黑灯瞎火的,什么也看不见。真是A了个漆黑,看个寂寞。</p> <p class="ql-block"> 当时就用我早年坐卧铺的经历揣度,怕是遇上了算法不公。当年购卧铺票要是同购往返,一般是出一张上铺一张下铺,很少同时出上铺或下铺的。这叫肥瘦搭配,图个公平。现在是智慧时代,网上购票,人脸识别进站,算法更先进和精准才是。心里如是想。也不是什么大事。日子一久,就淡了,也许就忘了。可几十年前屡受身份歧视的我,就是淡不去,忘不了。</p> <p class="ql-block"> 今年春节,DeepSeeK横空出世,官宣其无所不能。抱着试试看的想法,向它发出问题:人脸识别算法有歧视吗?高铁售票有算法歧视吗?。 </p><p class="ql-block"> 很意外,也很开心,它给出的答案不仅“思考”而且很“深度”:</p><p class="ql-block"> 人脸识别中的“算法偏见”是指系统在处理不同人群的面部数据时,因技术或数据缺陷导致识别结果出现系统性、不公平的偏差。这种偏见通常表现为对特定群体(如某些种族、性别、年龄)的识别准确率显著低于其他群体,可能引发伦理问题和社会不公。</p><p class="ql-block"> 主要表现</p><p class="ql-block"> 1. 种族差异:深肤色人群(尤其是非裔、亚裔)的识别错误率常高于浅肤色人群。例如,研究显示某些系统对深肤色女性的误识率比浅肤色男性高数十倍。2. 性别偏差:女性(尤其是深肤色女性)的识别准确率可能显著低于男性,导致误判或无法识别。3. 年龄偏差:儿童或老年人的面部特征变化较大,识别准确率常低于中青年群体。4. 其他群体差异:跨性别者、特定面部特征(如戴头巾、眼镜)的人群也可能面临识别困难。</p><p class="ql-block"> 偏见的根源:1. 训练数据不均衡:数据集过度集中于特定群体(如白人男性),导致模型对其他群体泛化能力差。2. 算法设计缺陷:特征提取方式(如肤色、面部结构)可能对不同群体敏感度不同,放大数据中的偏差。3. 评估标准片面:仅关注整体准确率,忽视子群体表现差异,导致系统在“典型用户”外表现不佳。4. 社会文化因素:技术开发团队的多样性不足,可能忽视边缘群体的需求。</p><p class="ql-block"> 实际影响:1. 执法误判:错误识别可能导致无辜者被指控,加剧司法不公(如美国多起误捕非裔案例)。2. 服务歧视:支付、门禁系统对部分用户失效,或广告、招聘算法因识别偏差产生歧视。3. 隐私侵犯:监控系统对有偏见的识别结果可能过度针对特定群体。4. 社会信任危机:技术的不公平性可能加深群体对立,削弱公众对AI的信任。 </p><p class="ql-block"> 解决方案:1. 数据优化:构建多样化的数据集,覆盖不同种族、性别、年龄、光照条件等场景。2. 算法改进:引入公平性约束(如“公平损失函数”),平衡不同群体的识别性能。3. 严格测试与审计:分群体评估模型表现,通过第三方审计确保公平性(如NIST的FRVT测试)。4. 政策与伦理规范:立法限制高风险场景的应用(如欧盟AI法案),要求技术透明化和可解释性。5. 多元化开发团队。增加技术人员背景多样性,减少设计盲区。</p><p class="ql-block"> 典型案例</p><p class="ql-block"> 亚马逊Rekognition:2018年被曝对非裔美国国会议员的照片错误匹配罪犯照片,错误率高达31%。</p><p class="ql-block"> Face:在Gender Shades研究中,对深肤色女性的性别识别错误率为34.7%,远高于浅肤色男性的0.8%。</p><p class="ql-block"> 警方误用:2020年美国底特律警方因人脸识别错误逮捕一名非裔男子,引发广泛争议。</p><p class="ql-block"> 算法偏见本质是技术与社会结构交互的产物,解决需技术改进与社会监督结合。随着各国对AI伦理的重视(如ISO/IEC 24027标准),未来可能通过“公平AI”框架减少偏见,但技术中立的理想状态仍面临挑战。</p> <p class="ql-block"> 高铁座位分配主要由系统根据实时余票情况自动完成,通常不存在针对个人的算法偏见。以下是详细分析:</p><p class="ql-block"> 1. 座位编号规则</p><p class="ql-block"> 高铁座位遵循标准编号:A/F靠窗,C/D靠走廊,B为中间座位。因此,用户去程C座(走廊)与返程A座(靠窗)符合系统分配逻辑。</p><p class="ql-block"> 2. 自动分配机制</p><p class="ql-block"> 余票决定分配:系统会优先分配当前可用的连续座位。若去程购票时靠窗座位已售罄,C座可能为仅剩选项;返程时A座恰好有空余,则被分配。</p><p class="ql-block"> 随机性与均衡性:为避免特定座位长期空置,系统可能动态调整分配策略,平衡靠窗与走廊座位的使用率。</p><p class="ql-block"> 3. 用户操作因素</p><p class="ql-block"> 若未手动选座,系统默认自动分配。建议在购票时主动选择座位(多数平台支持选座),以确保符合偏好。</p><p class="ql-block"> 4. 环境与列车因素</p><p class="ql-block"> 光线影响:夜间返程时窗外昏暗,靠窗座位也可能无法观赏景色。</p><p class="ql-block"> 列车方向:同一座位在不同车次中可能朝向相反,导致视野差异(如面对车厢隔板)。</p><p class="ql-block"> 5. 算法偏见可能性低</p><p class="ql-block"> 铁路系统以效率和公平性为核心,通常不会针对个人设置偏好。分配差异更多源于实时余票和购票时间,而非主观偏见。</p><p class="ql-block"> 建议: </p><p class="ql-block"> 下次购票时,主动使用“手动选座”功能锁定心仪位置(如白天选A/F座观景,夜间选C/D座便利),避免依赖系统随机分配。若对座位有特殊需求,可提前购票或咨询工作人员。</p> <p class="ql-block"> 看来,我的苏州高铁行遭遇算法歧视,可能性极低。进站被“人脸”拒绝“识别”,也是因为退休后很少坐高铁,糸统中没有我“人脸”,何以识别?但从“深度思考”的回复看,算法歧视又是真实存在的,而且发生过不少起。因此,我的揣度与怀疑又是有道理的。算法只是工具,是人编制出来的程序。所以,即便DeepSeeK这样“国运”级聪明机器,也不敢拍胸脯说“没有算法歧视”,只是说我“遇到算法歧视的可能性极低”。</p><p class="ql-block"> 这个“极低”,近日真碰上两例。</p><p class="ql-block"> 听安徽电台“政风行风热线”,一双目失明听众投诉,自己双目失明,在银行人脸识别采样时,无法“眨眨眼”,因此他的社会保障金支付糸统无法证明“自己是自己”,致保障金无法即时到账。最热的科技遇见最冷的人情。投诉至节目,节目组协调社会保障部门上门为其做纸质证明和身份确认。几天后,停发几个月的社会保障金终于到卡上。更有甚者,老人弥留,后人想乘人还有意识,把老人存款取出。银行人脸识别取款,活生生硬让几个孩子把老人用担架抬到银行大厅人脸识别。科技的目标之一是便利。如此人脸识别,是用“繁锁生硬野蛮”的办法提供服务,而且屡见媒体,让人唏嘘而怒。又电台一节目采访某市级非遗编修(毛竹)传人,其说双手无指纹,因几十年编修毛竹,指纹已被毛竹磨光了。说者有意,手艺变非遗不是白来的;听者有心,这位非遗传人要是碰上指纹识别,咋办?说不定要遭遇算法歧视,直至被拒的。</p><p class="ql-block"> 上面几例,虽属个别,发生的可能性也是极低极低,但确确实实是真实存在的,也是活生生的人,活生生的事。智能时代和智慧生活的路上,也应一个不能少,不能落,不能忘。虽说他们是小众,甚至是个别个人个案,但他们也一样有享受智能识别的便利,Al的阳光也应照拂到他们。</p><p class="ql-block"> 这恐怕是算法工程师和有关部门要“深度思考”的事。(2025.3.28)</p><p class="ql-block"> </p>