公司如何为未来开发道德的AI技术

文章 (147) 2021-03-25 15:36:08

解决方案很可能介于两个极端之间。公司不能忽视与合乎道德的AI应用相关的风险,但是指南必须更具可口性和具体性,以推动进步。答案也不是千篇一律的解决方案-最佳解决方案将根据每个公司的价值,目标和需求而量身定制,从而使寻求正确的道德与成长平衡的旅程变得高度个性化。

公司可以采取一些步骤来打开道德AI与进步之间的平衡之门。

1.评估当前的数据可用性和公司的技术能力。

公司的数字化水平和技术能力各不相同。尽管世界越来越趋向于以数字为先的未来(这一流行病在加速发展),但在采用或开发技术时,公司却处在各个层面。取决于公司所处的阶段-无论是在开始时,在寻求技术进行初始优化时,还是在更晚的时候,当他们使用AI来了解客户的需求和偏好时,道德问题和含意将千差万别。

2.衡量各自的行业标准。

依赖AI技术的实践也因行业而异。尽管某些公司可能选择依靠AI来提高内部生产力或改善工作流程,但其他公司可能会更进一步,并使用AI来实现更好的受众定位,用户行为分析或欺诈识别。根据用于训练AI模型的数据的敏感度级别,在开发采用道德方法来采用和开发AI解决方案时,各个行业将有不同的需求。

3.创建一个将在道德框架上工作的团队。

除了公司和行业之间的个体差异外,一件事情很重要-每个组织绝对需要有一个团队来制定公司的道德标准。团队需要在AI的学术思想领袖和直接参与AI解决方案开发和采用的员工之间取得平衡。虽然学术方法可以从较高的理论意义上更全面地理解道德标准,但是从软件工程师到产品经理的员工都通过介绍公司技术能力和长期目标的细微差别来推动框架的发展。 ,帮助创建一套独特的适合公司的标准。

4.让整个组织参与进来并进行协作。

虽然让直接参与AI应用程序的内部利益相关者参与对于开发高度相关且量身定制的框架至关重要,但同样重要的是让组织的每个部门参与流程并向公司中的每个人进行教育以了解框架旨在避免的风险。

员工需要对公司拥有的用于训练AI模型的数据有很好的了解,以及对处理大量数据的道德标准的需求。参与的目标是在组织内部建立一种文化,该文化不断质疑数据的收集和使用方式,并随着公司在内部和外部逐步将AI纳入其运营中来确定需要改进的领域。

THE END

发表回复