2021年6月12日
2021年6月12日
贡献:苏珊摩尔
压制性政权正在努力开发人工智能(AI)系统,以控制人口和压制异议。如果这些努力取得成功,政治抗议将成为过去的情感遗迹,在走上街头之前就被镇压。
人工智能在企业中也存在不那么戏剧性但严重的风险。如果不正确的人工智能信用评分阻止消费者获得贷款怎么办?或者攻击自动驾驶汽车的人工智能模型导致致命事故?或者数据中毒是否会导致银行住房贷款审批对特定群体产生偏见?
了解更多:高德纳安全与风险管理峰会
在一个Gartner的调查部署人工智能的公司都提到了这一点安全性和隐私作为他们实施它的最大障碍。针对人工智能的安全威胁并不新鲜,但企业用户还没有充分应对这些威胁。
“企业信任是关键成功企业的人工智能说,“Avivah Litan, Gartner杰出副总裁分析师。“然而,更好地保护组织的安全和隐私标准和工具仍在开发中。这意味着在威胁防御方面,大多数组织基本上只能靠自己了。”
大多数针对普通软件的攻击也可以应用于人工智能。这意味着,可以减轻恶意黑客造成的破坏的安全和风险管理解决方案,也可以减轻将错误引入人工智能环境的善意用户造成的破坏。保护敏感数据不被泄露或不被偏见的解决方案也有助于防止由有偏见的模型训练引起的AI伦理问题。
人工智能带来了新的威胁。在AI训练阶段或AI模型运行时,有意或错误地“中毒”的数据可以操纵结果。查询攻击可能试图确定AI模型的逻辑并改变其规则。训练数据或人工智能模型本身也可能被窃取。
Gartner建议在现有的减轻威胁和保护措施的基础上,实施两个新的风险管理支柱人工智能的投资.
将安全性改造到任何系统中都比从一开始就将其构建起来要昂贵得多。AI系统也是如此。
利坦说:“不要等到不可避免的违约、妥协或错误损害或破坏你的公司的业务、声誉或业绩时才行动。”“这将保持人工智能模型运行良好,确保你的数据受到保护,并支持‘负责任的人工智能’,消除模型偏见、不道德的做法和糟糕的决策。”
15
与领先的安全和风险管理领导者联系,了解建立敏捷安全计划的最新见解等。
为Gartner客户推荐的资源*:
*注意,有些文档可能不是所有Gartner客户都可以使用的。