负责任的AI开发面临的挑战

文章 (143) 2021-03-25 15:34:06

人工智能和机器学习(ML)构成了下一代技术的基石。他们的创新能力,如计算机视觉,自然语言处理,高级分析等,使学校和企业能够创建有洞察力的数据驱动型解决方案,并为全球经济的发展做出贡献。最重要的是,人工智能正日益成为致力于解决世界上最复杂问题的社会计划的一部分。结果,学校,政府和企业开始越来越接受人工智能。以这种速度,人工智能将很快成为几个国家发展的中心焦点。即使这样,我们也不能忽视它将带来的新挑战,例如网络安全风险,数据隐私问题,数据滥用,意外后果等等。

现代客户更喜欢提供定制解决方案的企业,以提供简便的服务。同时,他们希望公司在使用个人信息方面保持公平和透明。而且,当出现问题时,他们希望政府能够通过规范数据保护和隐私的法律和政策帮助他们。苹果首席执行官蒂姆·库克(Tim Cook)曾说过:“人们已经将他们最个人的信息委托给了我们。我们欠他们的就是我们可能提供的最佳保护。” 企业正在尝试各种AI机会,同时尽力与客户公平。公司必须先满足某些条件,然后才能在解决方案中实施AI和数据。这些标准应符合道德规范,并应由端对端治理机构制定。

人工智能开发的最大关注点:
没有透明度
人工智能涉及产品的复杂编程,无法向普通人解释。此外,大多数基于AI的产品或应用程序的算法都处于保密状态,以避免安全漏洞和类似威胁。由于这些原因,人工智能产品的内部算法没有透明性,这使客户难以信任此类产品。

隐私
困难的是,公司喜欢数据并且他们喜欢保留数据。当公司未经事先许可就收集消费者数据时,公民的隐私将不断受到威胁-使用AI可以轻松做到这一点。面部识别算法已在世界范围内广泛使用,以支持不同应用程序和产品的功能。未经许可,此类产品正在收集和销售大量客户数据。

晋升
当开发人员怀有偏见时,AI算法可能会显示有偏见的结果。由于决策流程在后台的运行方式没有透明性,因此实际用户无法确定其公平性。因此,这可能导致算法产生有偏差的结果。例如,法院系统可以使用AI算法来评估被告的风险,包括另一种犯罪的可能性。而且,他们依靠数据来做出保释,假释和量刑的决定。法院当局或政府可能不了解算法的构建方式。开发此类算法的私营企业倾向于将其置于黑盒状态,这可能会使司法机构面临风险-因此缺乏必要的监督以确保AI不会受到偏见。

缺乏治理和问责制
当AI系统或产品做出不道德的事情时,要归咎于责任或问责制是一项挑战。早期的治理功能必须处理静态流程,但是AI和数据流程是迭代的。因此,我们需要一个可以类似地适应和变化的治理流程。

THE END

发表回复