人工智能可以合乎道德吗?

文章 (159) 2021-08-15 11:17:05

在过去的一年中,似乎钟摆正在反对人工智能的使用。跟随世界因人工智能技术赢得危险而惊叹!击败围棋和国际象棋大师,似乎世界越来越担心人工智能在我们生活中看似无限的力量和影响。这些担忧是有道理的,而且越来越普遍,尽管它们经常被放错地方和误解。然而,有趣的是看到世界各地的政府开始发布关于人工智能的道德使用的指导方针和政策。有人可能会争辩说这是他们很久以前就应该做的事情,但假设政策和指导方针有助于缓解恐惧并解决当前和未来的现实世界问题,那么迟到总比没有好。这给我们带来了第一个问题:什么是道德人工智能?这不是一个容易回答的问题。

尽管我很想进入哲学的兔子洞,但假设一个所有人(或至少所有理性的成年人)都可以就对与错、好与坏达成一致的世界听起来很有吸引力。但这不是现实;在一种文化或地方,在伦理和道德上可以站得住脚的东西在其他地方可能大不相同。有一些普遍认同的商业道德实践——例如,几乎每个人都同意欺诈是错误的。但是,当涉及到人类决策以及应用或消除偏见时,无论是感知到的还是真实的,都没有那么明确。

人工智能作为一套技术,甚至作为一个普遍的概念,都没有机会理解全球伦理道德汤。甚至在欧盟的“可信赖人工智能道德准则”报告中使用的声明也指出:“人工智能系统应该通过支持用户的代理和促进基本权利,成为民主、繁荣和公平社会的推动者,并允许为人类监督,”是开放的挑战。例如,经济学人智库的研究发现,仅占世界人口不到 10% 的 23 个国家是完全民主的。相比之下,占世界人口约 36% 的 57 个国家是专制国家。乍一看,为道德 AI 定义参数的概念似乎合乎逻辑且具有普遍性,但乍一看,这似乎更像是一个白日梦。

你可以用任何适合你信仰的方式来定义道德人工智能,这听起来一点也不道德。

我的意思是,当我们开始思考 AI 对整个商业和社会的影响时,我们会陷入复杂的雷区。人工智能中一直使用“偏见”、“准确性”和“透明度”等术语,但即使在这里也可以对其进行解释。例如,偏见听起来好像是一件坏事,而且可能确实如此。如果你的人工智能人力资源系统歧视有色人种,我个人认为这确实是一件可怕的事情。但偏见并不总是消极的。事实上,它可以是积极的。偏差是非常准确的假设。例如,“西雅图或苏格兰格拉斯哥总是下雨”这句话。重要的是要意识到偏见,它们来自哪里,它们领导哪里,以及它们的影响是什么。

换句话说,如果数据中没有固有的偏见,人工智能就不会做出决定。尽管看起来很奇怪,但人工智能依赖于偏见的存在。我们可以设计消除数据中的负面偏见,我们应该这样做。但我们也应该记住,偏见是行为模式,而模式是人工智能的工作方式。事实是,人工智能永远不可能是公正的,但它可以是负责任和公平的。

THE END

发表回复