弥合AI完整性差距的4种方法

文章 (143) 2021-03-26 10:59:11

考虑一下有关大型数字经济公司AI驱动的突破的警示故事。

这家技术公司一直在寻求提高晋升和绩效的新方法,因此开发了一种算法来预测中层员工(包括经理)的晋升。基于最近的可量化成就和360度评价等项目,该算法在通过“潜力”和“预测谁将在高级职位上表现出色”对员工进行“排名”时,其表现要明显优于高层管理人员。管理层对结果感到很振奋,因为他们认为该技术代表了制定更高级决策的一种更公平的方式,并且如果组织中有更多“合适”的人上来,将有可能提高绩效和保留率。

当他们讨论在众多员工中推广该算法时,立即采取了措施,重点是程序正义。人们强烈地认为,各个级别的员工都应该由人类来审查他们的晋升能力。有些人担心人们可能会学会“玩弄”人工智能系统。因此,允许晋升算法做出决定对员工而言似乎是不公平的。最终,该公司认为更换人为判断系统的决策风险太大,因此搁置了该算法。根本没有足够的意愿前进。

这个例子取材于现实生活中,突显了开发和实施AI技术的挑战。根据可能的应用,即使是经过验证的技术也会面临巨大的内部阻力。因此,领导者必须找到方法来应对这种充满挑战的技术,道德和诚信交集。

下面我将讨论人们为什么会对AI技术做出如此强烈的反应,以及如何帮助您的组织弥合AI完整性差距。

当AI遇到诚信

人工智能在开发和实施方面遇到阻力有两个主要的相关原因:涉及的人员和应用程序。

首先,人民。从事人工智能研究的许多专业人员(科学家,软件工程师等)都深思如何使用他们创造的技术和产品。这可能是因为他们受过训练,或者源于学习型人士广泛思考的天生倾向。对于他们而言,这不仅仅在于建立某种能增加收入的方法,还在于真正发挥作用。产品会改善生活质量吗?技术会否使工作人员流离失所或取代工作岗位或创造新的就业机会?他们的发展背景使他们能够深入考虑这些问题,与其他部门或职能部门的问题相比,他们可能更愿意表达与完整性相关的问题。

其次是有关技术的应用。这部分与上面的观点有关;需要知道基于AI的产品是否将有意义地改善世界;使用的上下文至关重要。甚至超越了诚信这个一般意义上说,AI这些工作可能知道该技术将上使用它们,因为很可能的情况下的开放的例子的推广算法,它可以很容易地被应用到推进决策的工程经理谁开发它。考虑一下极端的情况,即AI应用程序有一天可能会取代软件程序员本身。请记住:当人们“用自己的钱赌博”时,他们会变得更加规避风险。

缩小差距

那么,如何消除人们对AI技术发展的正当诚信驱动的担忧呢?

有四种方法可以弥合AI与道德问题之间经常存在的巨大鸿沟。

在AI中,“黑匣子”通常是指模型决策背后的推理在很大程度上仍然未知。“为什么”被遮盖了。但是在这种情况下,我们还可以将黑匣子视为AI技术基础上的以人为本的流程。这些模型通常是由一个可能存在盲点或与更广泛的组织分离的小型团队开发的,从而导致对该技术的看法有限。相反,在可能的情况下,应将流程开放给更多的团队成员。 与此相关的是,越来越多的证据表明,基于人口统计,经验和观点的不同团队成员可以发现更多问题并提供新颖的解决方案。

创建支持性网络。 在组织内部建立支持性网络将促进各种计划之间的更大信任,包括与AI技术相关的计划。在我 过去的研究中,我们发现女性可以与男性建立不同的网络,她们需要与其他女性建立自己的网络以帮助她们发展事业。

THE END

发表回复