亚马逊 AI 在简历筛选中歧视女性?AI 犯错不是第一次了
发布时间:2018-10-15 15:10:20 所属栏目:站长百科 来源:PingWest品玩
导读:导语:类似人类的情感倾向出现在了 AI 上,本身就有悖于人类训练 AI 的目的。 亚马逊的 AI 招聘工具触动了人类敏感的神经,据路透社报道,亚马逊机器学习专家发现他们的 AI 招聘工具有一个明显的倾向——在筛选简历过程中,重男轻女。 这事得追溯到 2014
事件过去三年,尽管算法已经相对更加成熟,数据库更加丰富,人工智能的坏毛病还是无法根治。据英国镜报报道,用户在使用 Google 翻译时,结果里出现了令人毛骨悚然宗教话语,在某些小语种下,特定的重复词组会被 Google 翻译成带有宗教色彩的话语。 其缘由可能是 Google 翻译在某些小语种的学习上,使用了圣经——这一全球最为广泛翻译的数据——作为训练模型,从而导致该情况发生。在经过报道之后,Google 修复了这个 Bug。 一个不得不接受的事实是,人工智能的偏见与小毛病将伴随着它的成长。 (编辑:辽源站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |