可见性是确保人工智能和机器学习的道德未来的关键

文章 (139) 2021-08-15 11:27:33

越来越多行业中的组织依赖机器学习解决方案——以及它们的底层算法——来进行广泛的分析。他们解决业务问题和与人类知识协同工作的能力意味着机器学习技术的采用率很高。

通过模型选择提供分步指导很重要
由于模型类型如此之多,选择和应用最佳模型进行分析可能很困难。例如,深度神经网络模型本质上不如概率方法透明,概率方法通常以更“诚实”和透明的方式运行。

许多机器学习工具缺乏让用户积极参与的功能——它们是完全自动化的,没有机会审查和选择最合适的模型。虽然这有利于用户快速准备数据和部署机器学习模型,但它几乎没有提供视觉检查的前景来识别数据和模型问题。

为了使 ML 解决方案有效执行,它需要能够帮助识别和建议解决所有阶段模型中可能存在的偏差 - 从准备阶段,然后提供支持到创建 - 它将可视化所选模型的内容正在做并提供准确性指标——最后进行部署,它将评估模型的确定性并在模型需要重新训练时提供警报。

测试功能将权力交还给用户
为了进一步提高数据准备和模型部署过程中的可见性,我们应该寻找具有内置测试功能的 ML 平台,用户可以在其中测试新数据集并获得模型性能的最佳分数。这有助于识别偏差并相应地对模型进行更改。

拔出所选模型时,最有效的平台还将从诸难以识别的数据中提取额外的功能,并帮助用户了解粒度水平的数据发生的情况,超出了最明显的见解。

这里的总体目标是将权力直接交到用户手中,使他们能够在每一步积极探索、可视化和操作数据,而不是简单地委托给 ML 工具并冒引入偏见的风险。

控制你的偏见
早在初始数据上传和审查阶段,就可以将偏差等问题引入机器学习过程中。在数据准备过程中需要考虑数百个参数,因此通常很难在消除偏见和保留有用数据之间取得平衡。

但很明显,一个很容易引入偏见的参数是性别。在寻找特定的疾病风险或健康威胁时,性别可能是一个有用的参数,但在许多其他情况下使用性别是完全不可接受的,如果它有引入偏见进而导致歧视的风险。机器学习模型将不可避免地利用他们有权访问的数据集中的任何参数(例如性别),因此用户了解模型为得出特定结论所采取的步骤至关重要。

机器学习的幕后
消除数据科学过程的复杂性将帮助用户更快地发现和解决偏见——并更好地了解使用特定模型的预期准确性和结果。

具有内置可解释性的机器学习工具允许用户展示应用机器学习解决特定问题背后的推理,并最终证明结果的合理性。实现这种可解释性的第一步是 ML 工具中支持数据可视化检查的功能——平台在准备过程中提醒用户注意潜在的偏差——以及模型准确性和健康状况的指标,包括可视化模型正在做什么的能力。

ML 平台可以通过引入完整的用户可见性、通过一致的审计跟踪跟踪每个步骤来进一步提高透明度。这记录了在数据科学过程中如何以及何时导入、准备和操作数据集。它还有助于确保遵守国家和行业法规——例如欧盟的 GDPR “解释权”条款——并有助于有效地向消费者展示透明度。

可复制的结果对行业突破至关重要

透明算法对于新的行业发展也具有优势。通过审计跟踪和自动报告增强的可见性使用户能够快速复制相同的准备和部署步骤,保证相同数据的相同结果。这对于在重复性任务上实现时间效率特别有价值。例如,在生命科学领域,用户特别热衷于 ML 的可复制性和可见性,因为它成为临床试验和药物发现等领域的重要设施。

道德部署的未来取决于行业领导者
将可解释性和增强治理集成到 ML 平台是迈向道德机器学习部署的重要一步,但我们可以而且应该走得更远。

ML 未来的责任在于研究人员和解决方案供应商。这些行业领导者应该带头教育用户了解机器学习的偏见、道德使用和滥用。我们需要鼓励该领域的企业设立专门的机器学习教育计划,包括涵盖道德和偏见的特定模块,解释用户如何识别并进而解决或彻底避免危险。

以这种方式提高认识将是在医疗诊断、财务决策和刑事判决等敏感部署中建立对 AI 和 ML 信任的关键一步。

今天解开机器学习的秘密
人工智能和机器学习提供了真正无限的潜力来改变我们在各行各业的工作、学习和解决问题的方式——但确保这些操作以开放和公正的方式进行对于赢得和保持消费者和企业对这些业务的信任至关重要应用程序。研究表明,84% 的 CEO同意基于人工智能的决策必须是可解释的,才能获得信任。实现这一目标的最终目标是真正谦虚、诚实的算法,它为我们工作并帮助我们做出公正、自信的预测——从头到尾提供上下文、可解释性和准确性见解。现在是拥抱具有内置透明度的 AI 和 ML 解决方案的时候了!

 

THE END

发表回复