技术可以帮助组织减少种族主义,但是会吗?

文章 (142) 2021-01-31 23:20:05

我不认为自己是技术爱好者,而且天生就不会乐观。因此,不,这不是关于人工智能将如何拯救世界,或者大数据如何消除社会上的种族主义,从而使我们的世界变得更好的另一篇高调文章。可悲的是,实现这一目标的唯一方法也是消灭人类。的确,如果我们完全被算法取代,种族主义将会灭绝,就像我们用自动驾驶汽车取代所有人类驾驶员那样,交通事故将很少见,而且仍然会发生,主要是由于行人的不可预测性。

抛开这些不太可能发生的情况,您可以自己决定它们是乌托邦式还是反乌托邦式,了解一些更现实的方法可能会很有用,如果我们真正想要的话,技术可以帮助我们控制种族主义,在工作中及以后。毕竟,我们已经进入了一个时代,领导者减少种族主义的意愿似乎已经超过了他们的能力。因此,如果我们要从谴责转向干预,从批评转向解决方案,则必须利用我们拥有的每种资源,并对新的解决方案持开放态度,这尤其是因为传统干预措施取得的成功有限。只看综合学术评论的结论关于这个主题:“在我们研究的数百项研究中,有一小部分令人信服地谈到了给定类型的干预措施是否,为什么以及在什么条件下起作用的问题。我们得出的结论是,许多广泛的减少偏见干预措施(例如工作场所多样性培训和媒体运动)的因果关系仍然未知”。

技术,尤其是管理员工的数据驱动方法,至少可以通过四种明显的方式来帮助我们减少工作场所的种族歧视:

(1)分析电子邮件和消息的元数据(通信的上下文和社交网络):不会侵犯人们的隐私或阅读任何内容人们说,在与工作有关的交流中,这本身并不是非法的,可以对算法进行训练,以绘制团队或组织中的社交网络,从而识别出被排除在社交之外的人。将该数据覆盖到关于多样性(种族或其他)的人口统计信息上,可以帮助组织使用被动和非侵入性措施以数字方式“建模”包容性。想象一下像首席多样性官这样的领导者或人力资源专业人员,他们可以访问小组级别的数据来评估种族(或属于任何少数群体或受保护的阶级)是否与被排斥,被忽视或被排斥在统计上有关团队或组织网络。在没有自我报告的情况下,这种细粒度的证据可能会显示排斥。人们并不总是意识到自己对他人的不公平对待,使自己的行为合理化,以构建一个仁慈的自我概念,这就是为什么即使在其他人不认为自己的情况下,绝大多数人也将自己视为“好人”的原因。而且当他们是,他们很擅长掩饰它,这就是为什么对“您是种族主义者?”问题回答“是”的人数远低于实际种族主义者的人数的原因。

(2)分析沟通的实际内容(自然语言处理和危险信号):无需让老板或任何人花任何时间窥探员工的沟通,就可以肯定地训练了AI来可靠地监控人们在使用时使用的单词在任何数字媒体中进行交互。当然,我们不需要AI来阻止人们对可追溯或记录的通信的不当行为,谨慎的员工总​​是找到了使攻击性评论(包括有偏见和种族主义笑话)保持离线的方法。但是,由于现在在线或虚拟环境中进行的工作交流达到空前的水平,因此只有AI才能“关注”所有可能的有毒,反社会或适得其反的评论。随着自然语言处理的飞速发展,该软件可将单词用法的模式转换成个人的心理特征,包括其潜在的偏见,愤怒和攻击性,对于组织而言,比以往任何时候都更容易检测和制裁种族主义行为。离线发生的事情倾向于保持离线状态,但是在线发生的事情被记录下来以供后代使用。请注意,这项技术在减少种族主义方面的应用可能是双重的:您可以检查实际的违法行为,这是人类在举报举报行为时会做的事情,还是他们实际上是在花时间阅读人们所说的话;或者您可以检查潜力,这意味着确定可能会诱使某人将来发生不当行为的信号,或增加该人将来发生不当行为的可能性。从道德上讲,后者更具疑问,但也可以预防;

(1)分析电子邮件和消息的元数据(通信的上下文和社交网络):不会侵犯人们的隐私或阅读任何内容人们说,在与工作有关的交流中,这本身并不是非法的,可以对算法进行训练,以绘制团队或组织中的社交网络,从而识别出被排除在社交之外的人。将该数据覆盖到关于多样性(种族或其他)的人口统计信息上,可以帮助组织使用被动和非侵入性措施以数字方式“建模”包容性。想象一下像首席多样性官这样的领导者或人力资源专业人员,他们可以访问小组级别的数据来评估种族(或属于任何少数群体或受保护的阶级)是否与被排斥,被忽视或被排斥在统计上有关团队或组织网络。在没有自我报告的情况下,这种细粒度的证据可能会显示排斥。人们并不总是意识到自己对他人的不公平对待,使自己的行为合理化,以构建一个仁慈的自我概念,这就是为什么即使在其他人不认为自己的情况下,绝大多数人也将自己视为“好人”的原因。而且当他们是,他们很擅长掩饰它,这就是为什么对“您是种族主义者?”问题回答“是”的人数远低于实际种族主义者的人数的原因。

(2)分析沟通的实际内容(自然语言处理和危险信号):无需让老板或任何人花任何时间窥探员工的沟通,就可以肯定地训练了AI来可靠地监控人们在使用时使用的单词在任何数字媒体中进行交互。当然,我们不需要AI来阻止人们对可追溯或记录的通信的不当行为,谨慎的员工总​​是找到了使攻击性评论(包括有偏见和种族主义笑话)保持离线的方法。但是,由于现在在线或虚拟环境中进行的工作交流达到空前的水平,因此只有AI才能“关注”所有可能的有毒,反社会或适得其反的评论。随着自然语言处理的飞速发展,该软件可将单词用法的模式转换成个人的心理特征,包括其潜在的偏见,愤怒和攻击性,对于组织而言,比以往任何时候都更容易检测和制裁种族主义行为。离线发生的事情倾向于保持离线状态,但是在线发生的事情被记录下来以供后代使用。请注意,这项技术在减少种族主义方面的应用可能是双重的:您可以检查实际的违法行为,这是人类在举报举报行为时会做的事情,还是他们实际上是在花时间阅读人们所说的话;或者您可以检查潜力,这意味着确定可能会诱使某人将来发生不当行为的信号,或增加该人将来发生不当行为的可能性。从道德上讲,后者更具疑问,但也可以预防;

THE END

发表回复