正如第二章“AI在中国医疗系统”所阐释的那样,中国正在公共医疗领域迅速地部署AI技术,为超过14亿公民提供持续的、高质量的医疗服务。AI如此迅速和广泛的应用需要对大量个人数据进行长期和持续的收集、存储和分析。这些无孔不入、数据密集的操作引起了公众对患者治疗期间和治疗后的隐私与数据安全的关注。公共医疗信息的敏感性长期以来一直是政策关注的焦点,但目前仍未得到充分解决。由于频繁的医疗数据泄露直接影响到数千万患者,公众舆论的压力越来越大,我们可以预见,隐私问题将继续在中国的AI伦理讨论中占据重要部分。
尽管隐私问题并不是中国独有的,但中国不遗余力的推动AI应用于全球最大的医疗体系(以患者数量衡量),使得隐私问题在规模上有着不同寻常的影响。在这方面,西方和中国在伦理讨论和方法上没有明显差异,只有一个例外那就是,在上述监管框架下,中国以更积极的态度制定和颁布相关法律、监督和惩罚违法者,以遏制隐私泄露。
另外,来自国外的医疗系统用于中国患者因为样本偏差而导致“水土不服”。中国在医疗领域使用AI服务仍处于早期讨论阶段,且主要用于城乡之间的远程医疗,一项研究显示了国外系统用于中国患者存在“水土不服”的问题。第二章中提到,IBM沃森肿瘤的试验就是一个很好的例子,这一系统是在西方人群的数据集上训练的,缺乏中国本地的数据支持(详情请参见本系列第二章)。
西方和中国数据集之间的差异会导致一些成熟的西方系统/技术不适用于中国用户,例如iPhone的面部识别软件无法准确识别中国人的脸。在西方的训练数据集中,普遍缺乏有代表性的亚裔人群数据。
AI系统样本偏差引发的伦理问题一直在全球范围内被热议,但在中国国内,相关讨论较少。中国人口具有高度同质性,目前中国AI在公共服务中的应用对于缓解样本偏差已取得了重大尝试与突破,例如解决方言的多样性,但这种尝试并不能延伸到缩小城乡差距等涉及到公平与平等的领域。
“人脸识别与生物识别在通勤、交易支付和公共基础设施等方面的应用普及,正在孕育一种全民监控的文化。”