人工智能和认知计算中的伦理问题

文章 (10) 2021-08-15 11:22:02

一些创新在几乎没有明显警告的情况下突然出现在世界上。然而,大多数都是经过多年酝酿的渐进式变化——一种建立在先前版本基础上的演变,几乎没有直接影响。这不仅仅是最新的发布,而是市场需求、技术准备和新发明的融合,这是全世界必须注意的。缝纫机、内燃机或汽车需要企业家和技术人员的洞察力来改变世界。

机器学习和人工智能也是如此。他们的组件的迹象已经存在了几十年。一下子就成了头条新闻。然而,关于人工智能的有趣之处在于,今天的许多头条新闻都与技术进步无关,而更多地是关于这项发明将对人类和社会产生的影响。

隐私、欺凌、干预选举以及黑客入侵公司和公共系统的问题比比皆是。我们需要技术解决方案,但也许没有明确的解决方案是可能的。更抽象的是技术对儿童、成人和整个社会的影响。在一个道德和社会规范因一种文化而异的世界中,我们能否提出普遍接受的良好行为的社会规范?

相信
信任问题——对“黑匣子”人工智能和认知计算系统的建议和预测的信任程度是人工智能伦理问题的核心,因为它提出了期望问题。经过多年对软件行业和软件购买者的关注,我们确信供应商和购买者对软件完美的期望——或者对完美的需求——根本不匹配。计算期刊的档案中充斥着关于如何开发没有错误的软件的讨论。用户的投诉同样普遍。我们如何让这些不同的期望同步?为了避免广泛的挫折和潜在的诉讼,我们需要让双方制定一个共同的方法。

信任问题涉及软件使用和开发。在无法审计和验证算法结果或测试可重复性的情况下,我们能否理解 AI 系统在何处以及为何提出建议?我们可以相信提出建议的内容吗?它们是否基于权威且相对公正的来源?

我们是否应该尝试了解推荐的动机?供应商的利润动机是否与我们正在寻找的一致?通常,与搜索者的需求相比,对产品的搜索更多地受零售商库存的影响。推荐引擎可以轻松地将利润置于效用、价值或真相之上。当然,在现实世界中也是如此,但用户往往有些盲目地相信网站的内容。

偏见
偏见是另一个普遍关注的问题。训练集很容易包含错误信息、旧信息或不完整的信息,这些信息会扭曲搜索结果。它们可以反映数据和来源选择的偏见。内容管理员可能不知道存在组织控制之外的其他数据。在分类法、本体论或模式中可能存在隐藏的假设。因此,基于僵化模式的算法区分可能会使呈现满足个人需求的“最佳”信息变得困难。大型集合的庞大性使得“偶然发现”更相关的结果变得困难。

THE END

发表评论