许多AI伦理框架无法在实践中明确实施。在不大幅增加现有AI框架的特异性的情况下,根本没有太多技术人员可以做清楚地坚持这种高级指导。相应地,这意味着尽管AI道德框架可能有助于开展良好的营销活动,但它们往往都无法阻止AI造成本应预防的危害。
从这个意义上讲,道德准则实际上可能给采用该准则的公司带来严重的风险-造成一种错误的感觉,即组织的AI风险实际上很普遍时,它们已经使AI摆脱了风险。如果组织认为起草AI道德原则的行为足以确保其AI安全,则应重新考虑。
那么公司可以采取什么措施来防止其AI造成损害呢?
答案不在于完全放弃道德上的AI努力。相反,组织应确保这些框架也与道德AI的更广泛战略(直接关注于实施,以具体指标为中心)一起开发。换句话说,组织采用的每条AI原则也应具有清晰的指标,可以由工程师,数据科学家和法务人员进行测量和监视。
组织可以从承认开始:认真对待道德AI并非易事。将道德AI的原理应用于现实世界的部署环境需要大量的时间和资源,涉及法律,数据科学和风险部门,在某些情况下,还需要外部专业知识。确实,由于没有一种万能的方法可以量化AI造成的潜在危害,因此道德AI的指标可能会在组织,用例和监管辖区之间发生变化。根本没有一种最佳的方法可以衡量AI透明度或幸福感等原则。但这并不需要阻止对道德AI认真的组织,这些组织可以借鉴现有研究,法律先例和技术最佳实践的组合。
例如,在公平方面,美国在信贷,住房和就业法领域有多年的判例法,可以作为衡量算法歧视的指南-我之前已经解决了这个话题。组织可能希望采用或修改不利影响比率,边际效应或标准化均值之类的措施,这些措施被广泛用于量化在受到严格监管的公平贷款环境中的歧视。使用这些或类似指标来实现公平性,将使数据科学家能够了解AI在何时以及如何造成歧视性伤害,并在其造成歧视时迅速采取行动。
在隐私世界中,组织可以采用许多指标来量化潜在的隐私侵犯行为。尽管有许多关于该主题的研究实例(该研究是我的最爱之一),但一组称为“隐私增强技术”的技术可能是开始实施与隐私相关的原则的最佳途径之一。诸如差异性隐私之类的方法具有数据科学家可以立即使用的开源软件包,其基于这样的明确概念:隐私可以在大型数据集中量化,并且已经被许多技术巨头部署了多年。AI的可解释性和安全性领域也存在类似的研究 也可以与许多常用的AI原理(如透明性,鲁棒性等)搭配使用。
所有这些都意味着,随着组织从事将道德相关指标应用于其AI的艰巨工作,他们不必从头开始。通过将清晰的指标附加到其道德框架,组织可以更轻松地了解其AI中何时发生道德失败。
越来越多地强调指标在道德AI中的作用是否有不利之处?一定。算法决策的某些方面很难甚至无法量化。这意味着许多AI部署可能存在无形的风险,需要仔细和严格的审查。在某些情况下,过分强调指标可能会导致这些领域的风险被忽略。此外,要确保AI不会造成严重危害,还需要花费比明确指标更多的时间。问责制,文档编制,模型清单等机制也必须构成负责任地部署AI的任何主要组成部分。
但是,未能像部署AI的组织那样经常提供明确的AI危害衡量标准,这给一线技术人员和法务人员带来了混乱,他们需要可衡量的指标来了解其AI的行为是否不正常以及如何应对。做。
尽管将AI原则转化为具体指标的任务在智力上既具有挑战性又需要大量资源,但采用AI的组织不应畏缩。确实,他们负担不起。他们面临的挑战的另一种选择,即等到AI发生之后再衡量其危害,对他们的消费者,声誉和底线来说将更加困难且代价高昂。
归根结底,问题不在于是否要测量AI危害,但需要的时候。如果组织等待太长时间以量化AI可能造成的损害,法院将开始为他们做。
上一篇
下一篇