摘要:随着人工智能(AI)技术的不断发展和迭代,人类社会已进入大算力、大模型、大数据、大应用时代。AI早已被引入医疗领域,在流行病监测、药物研发、医疗影像识别、心理健康等方面发挥重要作用。而与之相伴的数据安全隐患也日益凸显。
■吴世忠
随着人工智能(AI)技术的不断发展和迭代,人类社会已进入大算力、大模型、大数据、大应用时代。AI早已被引入医疗领域,在流行病监测、药物研发、医疗影像识别、心理健康等方面发挥重要作用。而与之相伴的数据安全隐患也日益凸显。
当前,医疗领域网络化、数字化、智能化进程面临的安全风险主要包括数据泄露与隐私泄露、网络攻击与黑客入侵、数据篡改与伪造、不当访问与授权管理、医疗数据共享风险、数据存储的第三方服务风险、内部人员的泄密、数据冗余与保存不当、法律合规风险等。概括来说,要关注以下3个方面的问题。
第一是网络安全问题。随着AI技术的应用,网络安全风险出现了新变化,传统的网络安全问题受AI影响变得更加复杂,数据劫持、网络钓鱼、勒索攻击更加猖獗。
当前,医疗领域的网络犯罪现象十分突出,医疗数据遭受攻击和破坏的案例时有发生。例如,2023年,位于印度新德里的全印度医学科学研究所的医疗设备遭遇勒索病毒攻击;今年9月,美国AI医疗公司Confidant Health的服务器配置错误,泄露了5.3TB的敏感心理健康记录。
IBM发布的《2024年数据泄露成本报告》显示,医疗行业数据泄露平均成本达977万美元,连续14年成为数据泄露成本最高的行业。国内某网络安全企业也披露,2023年医疗行业泄露数据达9亿条,影响触目惊心。
第二是模型安全问题。AI模型的安全性直接影响应用效果,尤其是在医疗领域,近年来已经暴露出一些问题,包括个人隐私泄露、算法或模型攻击、模型偏差以及系统脆弱性和网络安全。这些问题的主要原因是模型本身在可靠性和可解释性方面存在不足。例如,AI模型受到简单扰动可能就会产生错误输出,或者数据本身存在问题导致AI模型结果不准确。
第三是AI在医疗领域应用中不可忽视的伦理问题。全球多国发布了关于AI伦理的文件,提出合作、透明度、公平、非恶意责任、隐私等基本要求。医疗领域也提出如何保护个人自主权、个人健康和安全以及公众利益等具体要求。然而,随着实际应用的推广,与AI相关的偏见、歧视、技术滥用、事故责任认定等伦理问题越来越突出。
针对AI在医疗领域应用的风险问题,需要从数据、安全和管理等角度进行应对。
在数据方面,要提高安全防护水平,确保数据安全和隐私保护,促进AI技术在现代医疗领域的转型和升级。数据是现代医疗的重要生产要素,具有很高的价值。虽然当前医疗数据数量越来越多,但数据质量并没有随之提高,“数据孤岛”问题依然存在,数据协同合作动能和效能不足,跨境数据流动面临较多待破解难题等,急需全方位突破。
在安全工作方面,要统筹安全与发展,强化安全保障体系。具体而言,要把软件作为网络安全服务的重点,确保医疗智能化系统的稳定性和可靠性。同时,需要加强医疗数据的保护,防范患者隐私数据丢失,但要确保促进正常的科研合作和数据流动。此外,还需要增强安全意识,通过定期培训与教育、营造安全文化氛围、模拟演练与应急响应、建立安全意识提示机制等举措,增强医疗行业从业人员整体的网络安全意识。
最后,要坚持依法依规管理,做好“技管并重”。可以充分利用数字医疗技术、安全保障技术等手段确保AI技术在医疗领域的发展和安全。同时,还要高度重视对新技术安全风险方案的研究,严格遵守法规政策,遵循技术标准和行业规范,以确保AI应用的安全性。
来源:新湖南