2020年7月22日
2020年7月22日
贡献者:Ben Hertzberg
公众对人工智能危险的担忧是有道理的。一个外部AI伦理委员会可以帮助将代表性、透明度和问责制嵌入到AI开发决策中。
在美国爆发大规模反种族主义抗议活动后,科技巨头微软、亚马逊和IBM公开宣布,他们将不再允许警察部门访问他们的面部识别技术。关注吗?人工智能(AI)很容易出错,尤其是在识别有色人种和其他代表性不足的群体时。
这种道德担忧并不仅限于面部识别软件。任何开发或使用人工智能解决方案的组织都需要积极主动地确保人工智能危险不会危及他们的品牌、引发监管行动、导致抵制或破坏业务价值。
媒体广泛引用微软总裁布拉德·史密斯的话说,他的公司不会向美国警察部门出售面部识别技术,“直到我们有一部以人权为基础的国家法律来管理这项技术。”
因此,在缺乏针对人工智能危险的高度严格的制度保护的情况下,组织自己能做些什么来防范它们呢?
毕竟,人工智能可能会导致许多负面结果,从消除稳定、高薪的工作,到通过无法解释的算法来决定刑期和医疗福利。任何完全自动化的东西都可能被滥用或被滥用。
防止这些后果的第一步,也许也是最关键的一步:安装一个外部人工智能道德委员会,以防止——而不仅仅是减轻——人工智能的危险。
COVID-19大流行引起了人们的特别关注如何应用数据伦理在收集、使用和共享有关员工和个人健康的数据时的决策过程。但是,如果希望利用人工智能为业务提供的许多机会,每个组织现在都必须防范人工智能的危险。
感知到的和实际的危险往往源于人工智能在很少或没有人为干预的情况下做出决策和采取行动的能力。经常被宣传的是人工智能对隐私、工作、人际关系和平等构成的风险。
阅读更多:3种拥抱积极的数据伦理的方法
尽管存在缓解人工智能危险的公共机制,但这还不够。市场力量鼓励公司开发人工智能来满足政府对面部识别和监控的需求,但它们在道德使用方面的承诺并没有得到相应的提升。
监管机构往往对人工智能没有足够的准备或知识,无法制定适当的监管措施。专注于避免难以逆转的法律结果的法院,往往比确保公众福祉所必需的更严格。
因此,人工智能解决方案开发人员担心他们的人工智能在开发过程中会被扭曲,或者一旦进入市场就会被滥用,这并不令人惊讶。微软对面部识别技术使用的担忧当然是有道理的,因为这种先进的技术虽然旨在保护社区,但也会对这些社区产生负面影响。
这种负担很容易落在有色人种、来自LGBTQ社区的人以及其他在许多开发和监督此类技术的机构中代表性不足的人身上。
Axon是一家执法技术解决方案提供商,该公司成立了一个外部道德委员会,以帮助减轻旨在保护公众的机制的缺陷。具体来说,该公司成立了一个董事会,在人工智能开发过程中提高了透明度、问责制和代表性。以下是汲取的经验教训。
你的主要客户是你产品的购买者,但谁是消费者呢?就警务技术而言,执法机构可能是客户,但他们所服务的社区是消费者——他们直接受到技术使用的影响。
确保高估那些了解关键消费者的声音,并能洞察你的人工智能技术的潜在影响。这有助于在AI产品上市前过滤掉糟糕的产品提案。
向你的AI伦理委员会公开你的每个AI项目和AI路线图。一个不知情、不知情的董事会不是一个有用的董事会。确保你的董事会成员拥有所有必要的细节,以便对开发项目提出自信的建议。这种透明度和可信度将帮助你获得并留住有价值的董事会成员。
一旦董事会提出了建议,高层领导就需要做出回应——公开地。这表明该组织是负责任的。
Axon还采取了不同的步骤来授权人工智能伦理委员会及其成员:
一个有效的外部AI道德委员会嵌入到组织的AI发展实践文化中,从而提高竞争优势和业务弹性,并使组织对人才更具吸引力。
本•赫茨伯格(Ben Hertzberg)是Gartner Data & Analytics (D&A)部门的研究主管,他与高级专家阿里尔•希尔伯特(Ariel Silbert)共同起草了该观点。首席数据与分析官研究团队(Ben和Ariel是其中的一员)通过制定同行最佳实践建议,帮助首席数据与分析官实现其关键任务优先级。
加入您的同行,在高德纳会议上揭开最新的见解。
为Gartner客户推荐的资源*:
*请注意,有些文档可能不是所有Gartner客户都能获得。