在医疗保健危机中转向AI是个好主意吗?

文章 (120) 2021-01-30 19:39:37

人类犯错是因为我们感到疲倦,分心和不知所措。我们错过了航班,因为我们混淆了晚上6点和16:00;我们用盐代替糖。我们将其视为必然性并加以处理。

好吧,有了人工智能(AI),我们不必这样做。AI的优点在于它的行为就像一个完美的头脑。它可以做出决定,但永远不会感到疲劳,学习却永远不会忘记,分析却永远不会错过细节。

在时机至关重要且没有错误余地的领域(医学)中使用这种资源是很自然的。

人工智能可以为我们的健康做些什么

人工智能可以在医学上提供帮助的方法之一是分析图像以诊断疾病并监控治疗。在大型数据集上训练的基于深度学习的模型最适合该任务。他们可以在数分钟内处理数十亿字节的可视数据,花费的成本比人工少,并且性能至少与医生相同。他们检测癌细胞和肿瘤。它们有助于在CT扫描中定位器官。

也许与今天最相关的是他们在诊断Covid-19中的投入。李勤等人最近的一项研究。发现定制的深度学习模型可以在CT扫描中检测到Covid-19,并可以在90%的时间内准确地将其与肺炎区分开。这种诊断方法是非侵入性的。它可以在早期发现疾病。图像分析需要4.5秒。

考虑到使用AI模型的准确性,效率和低成本,采用这种技术似乎几乎是犯罪的。尤其是在我们的医疗系统承受巨大压力的时候。但是,我在AI安全方面的经验告诉我,不应急于将AI应用于医学。

为什么AI安全性至关重要

当前,还没有一个完全安全的机器学习模型。全世界的研究人员正在精心设计攻击和防护措施,以超越恶意用户。攻击可操纵数据,重新训练模型,将秘密特征(后门)嵌入模型,最常见的是扰动输入-所有这些都是为了使模型产生意想不到的结果。而且,很显然,没有没有被成功攻击的模型。

在与医疗相关的任务上已经发生了许多成功的攻击。心电图发作可能会阻止医生诊断和治疗心脏病。由于对计算机脑接口的攻击,如果攻击者控制了轮椅或其他移动辅助设备,则可能会误诊残疾人或将其置于危险境地。

在引入扰动时,医学图像比真实照片更容易受到对抗性攻击。之所以如此,是因为纹理更复杂并且数据量更大。由于图像本身不易被人解释,因此这些变化也更难以察觉。攻击可能具有毁灭性的效果。Chen等。在CT扫描中引入了不明显的扰动,并将模型识别器官的可能性降低了30%,从而减少了发现健康问题的机会。

另一组 攻击性攻击针对我们的隐私。对手可以通过推断是否使用特定数据来训练模型来利用AI。要执行成员资格推断攻击,对手无需了解模型的架构或无需访问模型。分析输出就足够了。在医学领域,获得的信息总是敏感的。例如,对手可以了解一个人是否患有某种特定疾病,并利用该知识对其声誉,雇用前景,保险费率等产生负面影响。

将来,当将AI用于诊断和计费时,医院和保险公司之间的欺诈行为将更有可能发生。医生可以利用对抗性例子来获取经济利益或帮助患者避免无法克服的费用。

这些威胁似乎不足以延迟部署在大流行情况下非常有用的工具。但是,构成最大危险的并不是直接的后果。对AI的不信任将不可避免地随着每次数据泄漏和错误诊断而累积,即使这些错误和错误的发生频率不如人为错误。双重标准背后的原因是我们对所有新事物的天生戒心,尤其是我们不完全了解的事物。重要的是,我们不要让这种谨慎变成敌意,因为完全拒绝实施AI可能会导致未来数百万人丧生。那么我们如何解决这个难题呢?我们如何在不创造先例的不信任状态下立即收获AI的利益,这种不信任会在以后伤害我们?

我们如何实现AI安全性?

安全性是在行之有效的成熟方法与实现新功能的追求之间取得平衡。从广义上讲,这就是余额的样子:

1.为了防止无线传输期间的数据修改,我们应该要求始终加密。

2.为了防止对手用来窃取数据的模型倒置和成员推断攻击,对AI模型的所有请求都应由AI特定的异常检测系统进行监视。

3.为防止逃避攻击,应采用四层安全措施:测试安全漏洞以预测威胁,保护模型以防止攻击,检测恶意输入的系统以及最后定期审查安全性和防御措施以应对对手。

这些是一些更常规和完善的安全方法。结合最新的AI攻击检测器,它们可以为新实施的AI 提供合理的保护。我强调“合理”,因为截至目前,还没有机器学习模型或不受攻击影响的防御。而且没有理由认为将来会有。但是,AI太强大了,它不能成为一件好事。因此,AI安全必须成为不断维护和检查的首要任务。

THE END

发表回复