Skip to content

Latest commit

 

History

History
51 lines (27 loc) · 3.89 KB

when-amazons-ai-only-recruited-men-and-discriminated-women-fa0120a88e1c.md

File metadata and controls

51 lines (27 loc) · 3.89 KB

亚马逊的 AI 只招男性歧视女性的时候

原文:https://pub.towardsai.net/when-amazons-ai-only-recruited-men-and-discriminated-women-fa0120a88e1c?source=collection_archive---------1-----------------------

亚马逊人工智能失败案例研究

使用案例:

2014 年,亚马逊决定在其招聘系统中建立一个机器学习模型,该模型可以评估成百上千的申请人,并吐出最佳的招聘资料。如您所知,当时申请软件工程师和技术职位的男性较多。

图片来源这里是这里是

该项目仅用于内部目的。我不能说亚马逊是否过于自信,但他们非常肯定在使用这个系统时会得到最好的候选人。

机器学习模型:

亚马逊的数据科学家收集了该公司在 2014 年之前收到的所有 10 至 15 年的旧工作申请。工作申请可以来自新生或有经验的人。最后,他们有各种类型的应用程序用于培训目的,但这对于未来是否足够呢?形势仍不明朗,我不知道他们是否考虑过这个问题。通常,机器学习模型根据我们教给它的东西工作,即我们如何训练它。 他们利用这些数据来训练机器学习模型,并将其与亚马逊招聘系统进行整合。结合亚马逊招聘系统,这种机器学习模型将作为一个调解人,将较低的参考申请与最适合的工作申请分开。

失败之处:

到 2015 年,数据科学家开始发现一个突出的问题。事实证明,该模型中技术和软件工作的角色显示出对男性求职者的偏好,而对女性求职者的评分较低。

图像来源这里是这里是

这种模式很快就从招聘系统中被抛弃了。机器学习模型的整合只是在重男轻女的时候失败了,虽然有点晚,因为这个模型丢弃了很多女性申请者。

失败的原因:

数据科学家使用了 10 至 15 年的工作申请数据,当时女性在软件技术工作中的比例与当前相比非常低。我认为他们每年都需要用最新的工作申请数据来训练机器学习模型。因此,机器学习模型了解到了不正确的相关性,即男性比女性更适合技术工作。是的。任何提供给模型的不正确信息都将作为坏的模型预测输出。

此处要学习的课程:

数据收集是创建机器学习模型时最重要的步骤。不正确的数据只会导致不正确的模型。 数据科学家在收集和处理数据时应具备社会意识。

图片来源是这里的。

否则会转嫁到 ML 车型上的社会买家没有认真处理。在训练模型时,男女的贡献应该保持相等。每天数据的类型都在变化,需求也在并行变化。用最新的数据更新模型对于机器学习模型来说是非常必要的,旧的数据总是会给你错误的预测。用最新的数据训练,得到牛逼的结果,很简单。

我希望,通过这个简单的案例研究,您能有所了解。我已经尽力让它变得简单易懂,所以享受它吧。

快乐 AI 学习!