Facebook深陷信任危机?!这一事件带给医疗领域的启示是……

药明康德/报道

最近,有关Facebook导致用户私人数据泄露的新闻报道层出不穷。Facebook在3月被爆出,有高达8700万用户的信息被一家名为Cambridge Analytica的公司非法获得。

这条新闻一经爆出就引发了强大的社会舆论,社交网络上用户信息的隐私性和安全性等问题又再一次成为了人们关注的焦点。而Facebook的创始人、董事长兼CEO马克﹒扎克伯格在上周举行的参议院听证会上,就Facebook的运营模式和安全性等问题展开了陈述,并接受了来自四十多位议员的质疑。

▲近日,Facebook被爆出有8700万用户的数据遭到泄露,这让社交网络用户的隐私问题成为了人们热议的焦点(图片来源:Pixabay)

这次的风波中,人们更加关心的并不是Facebook数据遭到泄露这件事本身,而是其背后的用户隐私权问题。同时,这次的事件也暴露出了Facebook一直引以为傲的人工智能技术的一些问题,其中就包括在没有彻底考虑社会规范影响的情况下应用AI技术时,可能导致的伦理方面的冲突。这一事件为医疗领域的领导者们带来了一些生命伦理学方面的启示,有助于他们在未来使用机器学习和人工智能算法模型作出更好的临床决策。

在构建这些模型的过程中,最大的生命伦理挑战在于如何在利用数据训练算法时,让这些数据不带有人类的偏见,从而防止算法受此影响导致结果出现偏差。举例来说,如果研究人员重复地只使用某种疾病的黑人患者相关数据对算法进行训练,而不考虑大环境等外部因素,那么算法就有可能错误地认为,该疾病在黑人中更常见。就拿精神分裂症来说,美国的黑人等少数群体和白人相比,寻求治疗的意愿相对较低。只有当病情严重时,才会去看医生,使得黑人群体的诊断率高居不下。这也会导致人工智能算法错误地认为,精神分裂症在黑人患者中更加普遍。同样,使用算法来分析基因测试的临床结果及风险时,如果来自少数人群的遗传数据过于稀少,那么算法的结论将同样会出现偏差。

这种偏差已经在现实研究中发生过:在2015年的一项研究中,研究人员利用著名的弗雷明汉心脏研究(Framingham Heart Study)中的数据来预测心血管疾病风险,其中对于黑人和西班牙裔患者群体的预测结果出现了偏差,原因是弗雷明汉心脏研究的研究对象主要为白人群体,缺乏少数群体的研究数据。

《科学》上的一篇报道阐述了一个统计学方面的机器学习模型,研究人员使用了来自万维网的标准文本对该模型进行训练。然而,最终结果显示,该算法倾向于将“女性”这个词与艺术和人文科学领域联系起来,而将“男性”一词与理工科领域进行关联。这充分说明了人们的固有偏见可能会对人工智能的分析结果造成很大的影响

▲社会上对于男性和女性总是会存在着一些固有的偏见(图片来源:Pixabay)

可以肯定的是,将大数据和机器学习整合到和临床决策相关的数字化平台中,可以减少医疗服务的差距,也可以缓解医生面对过多的管理工作时出现的倦怠心理,其前景是非常光明的。然而,要想做到这一点,医学研究和医疗领域的领导者们需要率先发挥积极作用,引导人工智能算法上的革新。

虽然大数据和机器学习技术可能会构成结果上的偏差,但它们也提供了一些独有的方式来抵消这些偏见。数据专家们已经开始呼吁在国际范围内建立人工智能的监督机构,通过自动计算机系统来防止对于少数群体的偏见。我们需要建立那些可以检测并消除偏差的临床决策系统和算法,要达到这一点,必须在算法建立的初期就将道德伦理因素纳入考虑之中。

▲开发出能够消除固有偏见的人工智能算法,从而更好地服务于医疗领域,是人类不可避免的责任

虽然人类会不可避免的带有某些偏见,然而算法是可以避免这一点的。尽管在很多情况下,开发一个可以消除已知偏见的临床决策算法过程可能会非常复杂,但是,如果我们要利用人工智能来帮助医生和其他护理人员做出临床决策,同时确保人类的固有偏见不会影响人工智能的计算结果,那么这就是我们不可回避的责任。

参考资料:

[1] What Facebook’s public scrutiny can teach us about artificial intelligence in health care

[2] The Cambridge Analytica scandal puts Facebook under scrutiny