2022世界杯半决赛走地

新闻稿

2019年6月6日,印度孟买

Gartner预测,到2023年,75%的大型组织将雇佣人工智能行为取证专家来降低品牌和声誉风险

分析师将在2019年Gartner数据与分析峰会上讨论人工智能和数据科学,6月10日至11日在印度孟买举行

用户对人工智能(AI)而且机器学习(ML)随着不负责任的隐私泄露和数据滥用事件不断发生,解决方案急剧下降。尽管监管审查越来越严格,以打击这些违规行为,但Gartner Inc.预测,到2023年,75%的大型组织将聘请人工智能行为取证、隐私和客户信任专家,以降低品牌和声誉风险。

基于种族、性别、年龄或地点的偏见,以及基于特定数据结构的偏见,一直是训练人工智能模型的长期风险。此外,像深度学习这样的不透明算法可以将许多隐式的、高度可变的交互作用合并到它们的预测中,这些交互作用可能很难解释。

“需要新的工具和技能来帮助组织识别这些和其他潜在的偏见来源,在使用人工智能模型时建立更多的信任,并降低企业品牌和声誉风险,”他说吉姆兔子他是Gartner研究副总裁。“越来越多的数据和分析领导者以及首席数据官(cdo)正在雇佣ML法医和道德调查员。”

金融和科技等行业越来越多地将人工智能治理与风险管理工具和技术相结合,以管理声誉和安全风险。此外,Facebook、谷歌、美国银行、MassMutual和NASA等组织正在招聘或已经任命AI行为法医专家,他们主要专注于在部署AI模型之前发现不受欢迎的偏见。

这些专家在开发阶段验证模型,并在模型投入生产后继续监控模型,因为由于训练数据和真实数据之间的差异,可能会引入意想不到的偏差。

Hare先生补充说:“虽然目前雇佣ML法医和道德调查员的组织数量仍然很少,但这一数字将在未来五年内加速增长。”

一方面,咨询服务提供商将推出新的服务来审核和证明ML模型是可解释的,并且在模型投入生产之前满足特定的标准。另一方面,开源和商业工具专门用于帮助ML研究人员识别和减少偏见的设计正在出现。

一些组织已经推出了专用的人工智能解释工具,以帮助客户识别和修复人工智能算法中的偏见。商业AI和ML平台供应商正在添加以自然语言自动生成模型解释的功能。还有一些开源技术,比如本地可解释模型不可知解释(Local Interpretable model -不可知论解释,LIME),可以在被纳入模型之前查找非预期的歧视。

这些工具和其他工具可以帮助ML研究人员检查敏感变量(如年龄、性别或种族)对模型中其他变量的“数据影响”。“他们可以衡量变量之间的相关性有多大,看看它们是否会扭曲模型及其结果,”黑尔说。

数据和分析领导者和cdo也不能幸免于与缺乏治理和人工智能失误相关的问题。他们必须将道德和治理纳入人工智能计划,并建立负责任的使用、信任和透明的文化。促进人工智能团队、数据和算法的多样性,以及提升人际技能是一个很好的开始,”Hare先生说。“数据和分析领导者还必须建立问责制,以确定和实施每个用例的数据、算法和输出的信任和透明度水平。在评估分析、商业智能、数据科学和ML平台时,它们有必要包括对AI解释性特征的评估。”

Gartner的客户可以从报告中了解到更多信息:《预测2019:数字伦理、政策和治理是人工智能成功的关键》而且“将改变你的业务的十大数据和分析技术趋势”

编辑须知*

《预测2019年:领导力意味着扩大选择,而不是限制它们——高德纳趋势洞察报告》是一个研究集合,旨在帮助cio和IT领导者关注个人、企业和IT组织的格局如何变化。

高德纳数据分析峰会

Gartner分析师将在2019年6月10日至11日举行的Gartner数据与分析峰会上提供更多的数据和分析趋势分析孟买.使用Twitter关注事件的新闻和更新# GartnerDA

世界杯足球比赛预选赛

Gartner, Inc.(纽约证券交易所代码:IT)为高管及其团队提供可操作的、客观的见解。我们的专世界杯欧洲杯赛程家指导和工具使组织能够在关键任务优先事项上做出更快、更明智的决策和更强的表现。欲了解更多,请访问gartner.com

联系人