人工智能战略伙伴关系展望

文章 (7) 2021-07-17 21:16:47

尽管领导者接受了人工智能的力量,但他们发现了它带来的三个破坏性挑战:有偏见的算法、对员工缺乏同理心以及任务分配不当。这些挑战对组织产生了严重的后果。他们可以为自己的品牌代表什么以及对员工的影响划清界限。但如果领导者管理不善,他们可能会严重影响品牌声誉、文化以及公平、多元化和包容性举措。

有偏算法

调查受访者表达了对人工智能算法治理的担忧。一些组织正在使用人工智能算法来识别合格的求职者。用于识别这些候选人的算法依赖于训练数据集。不幸的是,如果数据集对“优秀候选人”的定义反映了对性别、种族或教育背景的偏见,则候选人库将缩小为缺乏多样性的同质子集。该AI现在研究所的文件后果的主机偏置算法,从约医疗协议错误的假设过度监管的弱势群体。

领导者必须通过首先教育自己了解潜在的偏见以及如何减轻它们来应对这一挑战。其次,他们必须让最高管理层和职能领导参与垂直发展,帮助领导者以更复杂的方式思考,以便他们考虑人工智能算法对组织所有部门的广泛影响。第三,他们必须战略性地考虑在产品开发、人力资源招聘实践和保护工人的隐私政策中管理人工智能技术的使用的政策。

对工人缺乏同情心

生产线上的 50 岁工人成为数据科学家或机器人工程师有多容易?被自动驾驶汽车取代的司机或从收银机转到后台的人会怎样?

全球领导者如何管理所需工作和技能组合的变化,将为组织的文化定下基调。技能较低的工人是否有机会重新装备,或者他们只是被替换?领导者是否解决了老年员工的年龄歧视问题并公开表达来之不易的专业知识和知识的价值?它们是否会激励那些可能会感到过时的团队探索新的产品开发平台和技能?

领导者必须时时刻刻表现出同理心,否则就会因工作效率低下、敬业度低、甚至可能在 Glassdoor 等公共平台上表达不满的员工精神萎靡而遭受后果。是的,需要做出决定,但要用心。

任务分配不当

不是所有的问题都可以用机器解决。今天,人工智能算法在快速处理大量复杂数据方面表现出色。这些算法击败了国际象棋大师,并使用世界的预编程表示来指导无人驾驶汽车。

但是机器并没有心理学家所说的“心理理论——影响他们行为的思想和情绪。机器无法制定战略,无法根据对人们的情感影响做出决策,也无法理解不同文化之间的复杂互动。

人类不能放弃他们的人性。需要设定方向、调整团队并获得他们的承诺的任务和决策必须牢牢掌握在领导者手中,因为他们寻求激励和激励员工的卓越。

政府的角色

政府也认识到人工智能的强大潜在影响,并已启动了一系列企业可以借鉴的政策决策。

2018 年 5 月 10 日,白宫举办了美国工业人工智能峰会,讨论人工智能的前景、对美国政策和研究资金的影响,以及美国将如何在这一领域发挥领导作用。

由此产生的政策决定包括监管障碍;创建学徒制;增加用于计算机科学教育的科学、技术、工程和数学 (STEM) 资金;并增加战略军事投资。这些政策对各个级别的领导者都有影响,因为他们将人工智能投资与管理人工智能应用的正式政策结合起来,利用联邦资金培养新的劳动力技能,并为其未来的劳动力制定战略计划。

THE END

发表评论