课程: 数字化转型中的伦理考量
免费学习该课程!
今天就开通帐号,25,300 门业界名师课程任您挑!
数据隐私与合规:在创新中保护敏感信息
你有没有想过, 为什么有些看似中立的算法, 最后却做出了不公平的判断。 这就叫做算法偏见, 它并不是总是源于恶意, 更多的时候是系统在不经意间。 延续了现实世界的不平等, 偏见的来源有很多, 有可能是用了反映过去不平等的数据来训练系统。 也有可能是在设计时, 缺乏对多元化视角的考虑。 也有可能是在不适合的场景中, 使用了不适合的算法, 也有可能只关注效率指标, 却忽略了公平性, 这些偏见会带来很现实的后果。 比如说, 招聘系统可能会错过优秀的候选人, 信贷系统可能会对某些人不公平, 医疗算法甚至可能会误诊或者说是漏诊一些特定的人群, 那么我们该怎么样发现并解决它。 第一要有多元群体的测试, 用不同背景不同特征的用户来进行测试。 就可以看看, 系统是否对某些群体存在隐形偏见和歧视。 第二使用公平性指标, 不仅单看点击率转化率, 还要增加性别年龄族裔等等多维度的平等性评估。 第三清洗和均衡训练数据, 在模型学习之前先减少数据中的历史偏见。 第四关键决策, 保留人工审核, 像招聘贷款诊断这类影响重大的决策, 机器不能够一手包办。 第五提高可解释性, 让算法的判断逻辑公开透明, 让用户和员工能理解质疑和反馈。 下面我们来看一个例子, 一家叫 Brighthelm 的公司, 用 AI 帮助企业筛选简历, 后来他们发现, 系统总是会给某些学校和背景的候选人打分偏低。 于是他们用更加多元化的数据来测试模型, 清洗并重新训练系统, 增加了公平性审核, 并且保留了人工来做最后的录用决定。 这样不仅减少了偏见, 还让招聘流程更加透明更加可信, 一个公平的系统可以建立信任扩大机会, 也能够让技术真正服务每一个人, 而不是加剧不平等。