如何让人工智能安全有效

以下是应用严格的人工智能信任、风险和安全管理(AI TRiSM)的组织如何以及为什么将更有价值的AI模型投入生产。

你准备好了吗人工智能权利法案?美国最近的蓝图旨在保护社会免受有害的人工智能的伤害,提醒所有人工智能模型的开发者和用户,他们需要在他们的人工智能模型和战略中建立保障措施。需要对人工智能TRiSM采取严格的方法。

Gartner将AI TRiSM定义为一个支持人工智能模型管理、可信性、公平性、可靠性、稳健性、有效性和隐私。它包括为客户和企业提供模型可解释性和可解释性、隐私、模型操作和抗对抗攻击的解决方案、技术和过程。

下载电子书:2023年Gartner十大战略技术趋势详细指南

“IT领导者必须花时间和资源支持AI TRiSM。Gartner杰出副总裁分析师Avivah Litan表示,这些公司将在采用、商业目标以及内部和外部用户接受度方面获得更好的AI结果。“人工智能的威胁和妥协(恶意或良性)是持续不断的,因此人工智能TRiSM必须是一项持续的努力,而不是一次性的行动。”

为什么AI TRiSM是一个趋势技术

Gartner预计,到2026年,那些实现了AI透明度、信任和安全性的组织将看到他们的AI模型在采用、业务目标和用户接受度方面取得50%的改善。

人工智能变得越来越普遍。Gartner的调查结果表明,企业已经部署了数百或数千个AI模型,一些IT领导者无法解释或解释这些模型。缺乏知识和理解会造成严重的后果。当依赖性增加时,AI模型表现不佳的影响会被放大。

不进行管理的组织人工智能的风险更有可能经历负面的人工智能结果违反.模型不会像预期的那样执行,并且会出现安全和隐私失败、财务和声誉损失以及对个人的伤害。错误地实施人工智能也会导致组织做出糟糕的商业决策。

立即下载:2021-2023年新兴技术路线图

AI TRiSM的含义和操作

人工智能监管正在增加,但即使在强制实施保护之前,也必须实施确保信任、透明度和消费者保护的做法。IT领导者需要应用新的AI TRiSM功能,以确保模型的可靠性、可信性、隐私性和安全性。

不要等到模型投入生产后才应用AI TRiSM。这只会给整个过程带来潜在的风险。IT领导者应该熟悉各种妥协形式,并使用AI TRiSM解决方案集,这样他们就可以适当地保护AI。

AI TRiSM需要一个跨职能团队一起工作。这包括来自法律、合规、安全、IT和数据分析团队的员工。如果可能的话,成立一个专门的团队,如果不可能的话,成立一个特别小组,以获得最好的结果。确保每个AI项目都有适当的业务表示。

下载2023年CIO议程:4种方法确保你的技术投资获得数字红利

好处包括改进他们的组织通过使用人工智能获得的业务成果,而不是简单地遵守法规。

简而言之:

  • AI TRiSM功能确保模型的可靠性、可信性、安全性和隐私性。

  • 为了在人工智能采用、实现业务目标和用户接受方面获得更好的结果,组织需要管理人工智能的信任、风险和安全。

  • 考虑AI TRiSM作为适当保护AI的解决方案集。

Avivah Litan他是Gartner Research的杰出副总裁分析师,目前是ITL AI团队的成员,负责AI和区块链。她擅长区块链创新的各个方面,以及AI信任、风险和安全管理。Avivah在网络安全和欺诈的许多方面都有很强的背景,包括人工智能与这些领域的集成。

体验CIO和IT高管会议

加入您的同行,在高德纳会议上揭开最新的见解。

Gartner Terms of Use 和隐私政策。< / > "> 登录到您的帐户访问您的研究和工具" class="eloqua-text"> 登录到您的帐户访问您的研究和工具" class="optin-text">