摘要:随着技术的不断发展,自主式AI正逐渐成为企业数字化转型的重要推手。然而,如何确保AI的安全、有效应用,却成为了众多CIO面临的难题。本文将围绕五大关键问题,为CIO提供一份自主式AI落地指南。
随着技术的不断发展,自主式AI正逐渐成为企业数字化转型的重要推手。然而,如何确保AI的安全、有效应用,却成为了众多CIO面临的难题。本文将围绕五大关键问题,为CIO提供一份自主式AI落地指南。
每晚,当纽约大学格罗斯曼医学院(NYU Grossman School of Medicine)和纽约大学格罗斯曼长岛医学院(NYU Grossman Long Island School of Medicine)的大多数医学生都在睡觉时,AI正在为他们忙碌地工作。
一款AI应用会从纽约大学朗格尼健康系统(NYU Langone Health system)下属6家住院医院和300多家门诊地点获取匿名诊断代码,将它们与相关研究和诊断信息相匹配,并及时将结果通过电子邮件发送给医学生,供他们晨起时查阅。
该平台是自主式AI的一个例子,即能够自主决策和行动的AI系统。
“这实际上并不是改变AI本身,而是改变其周边组件,以便让该AI能够做出更相关的决策。”英国网络安全咨询和托管服务提供商NCC集团的技术总监大卫·布劳克勒(David Brauchler)说道。
但自主式AI只有在安全、维护良好且应用于合适的用例时才能发挥作用。以下是CIO在部署该技术之前应该提出的五个问题。
自主式AI将解决什么问题?
纽约大学朗格尼健康系统的高级副总裁、副院长兼首席数字信息官纳德·默哈比(Nader Mherabi)表示,当公司开始部署AI时,应该制定一个战略计划,以确保将正确的技术应用于正确的用例。“AI不能脱离工作流程,否则人们不会使用它。”
纽约大学朗格尼健康系统有一系列使用不同模型的AI相关项目。对于将病例与研究相匹配而言,智能体是一个合理的选择,因为它是一个相对直接的用例,能够产生高度有益的结果,默哈比说道。
“它访问和编译数据的方式非常强大,能够从中得出医学知识,然后为学生提供个性化的学习资料,”默哈比说道。“它几乎可以自主运行,”默哈比表示。
该代理不会接触高度敏感且受到严格监管的患者数据,这使得AI的使用风险较低。信息与患者就诊情况断开连接,并在纽约大学朗格尼健康系统的安全网络中运行。
我们是否有让其发挥作用的数据?
Gartner的高级总监分析师汤姆·考绍(Tom Coshow)表示,只有当AI拥有正确的数据,且这些数据得到妥善处理时,智能体才会有效。
数据还必须与确切的用例对齐。否则,智能体将从不该提取AI的地方提取,这可能会导致错误答案,或者在最坏的情况下,让员工访问到他们不该看到的数据。
数据也需要维护,这需要合适的人才,考绍表示。“数据专家这一新兴领域将擅长以智能体友好的方式维护数据,”考绍说道。
数据是否安全?
除了确保员工不会访问到他们不该获取的信息外,组织还应考虑自主式AI可能带来的安全风险。
“您在应用程序环境或网络中添加的所有内容都是必须管理的额外攻击面。”NCC集团的布劳克勒说道。
在考虑将AI添加到未考虑AI或AI相关风险的系统和平台时,公司应进行安全测试。NCC集团最近测试了一个平台,发现它可以通过添加隐藏文本来操纵系统。
“由于该平台并非为AI而设计,因此在其系统中创建了一个以前不存在的漏洞。”布劳克勒说道。
安全采用需要拥有经过AI培训的工程师,他们可以准备和管理风险。否则,“您实际上是在增加攻击面,而没有拥有解决AI特定风险的经验的工程师,”他补充道。
自主式AI在公司技术战略中处于什么位置?
并非所有自主式AI都是相同的,因此CIO需要询问哪些平台在整体技术战略的背景下是合适的。
“我是只在我的云服务提供商中构建,还是要寻找拥有特殊行业技能的初创公司?”考绍问道。
CIO还应询问他们能接受多少个自主式AI系统,以及如果他们在不同的平台上运行,他们是否有能力监控所有代理。
纽约大学朗格尼健康系统是分阶段开展AI相关项目的。这可能意味着创建较小的自主式智能体,这些代理可以像乐高积木一样连接成一个更大的整体。默哈比表示,这样,如果一个代理不工作,就可以将其拔出并修复,而不必拆除整个操作。
如何监控自主式AI?
自主式AI不是一种设置好后就可以忘记的应用程序。相反,它需要持续监控,以确保数据的准确性、使用恰当性以及最终用户的利益。
默哈比表示,使用自主式AI的应用程序“需要持续维护”。
自去年部署以来,通过密切监控,该卫生系统的自主式AI应用程序能够继续为医学生提供定制信息。它实现了用例目标,并继续发挥作用。
“我想,孩子们早上起床,登录门户,就能看到相关材料,这很不错。”默哈比说道。“谁不喜欢呢?”
来源:小象科技园地