公众不需要知道人工智能是如何运作来信任它的。他们只需要知道,拥有必要技能的人正在审查人工智能,并有权在人工智能造成或可能造成损害的情况下实施制裁。
兰开斯特大学(Lancaster University)数据科学高级讲师布兰·诺尔斯(Bran Knowles)博士表示: "我敢肯定,公众无法确定个体人工智能的可信度,但我们不需要他们这样做。保持人工智能的诚实不是他们的责任。 "
今天(3月8日),诺尔斯博士在ACM公平、问责和透明度会议上发表了一份研究报告,题为"权威的制裁:促进公众对AI的信任" 。
该论文由纽约克镇高地IBM T.J. 沃特森研究中心的约翰 T . 理查德斯共同撰写。
该文件指出,公众往不信任人工智能,这既源于多年来人们对人工智能的描述方式,也源于人们日益认识到对人工智能几乎没有任何有意义的监督。
提交人认为,对人工智能系统如何运作的更大透明度和更容易获得的解释被认为是增强信任的一种手段,并没有解决公众的关切。
他们说, '监管生态系统"是人工智能有意义地对公众负责、赢得公众信任的唯一途径。
理查德斯博士说: "公众并不经常关心食品、航空和药品的可靠性,因为他们相信有一个制度来监管这些事情,并防止任何违反安全协议的行为。 "
Knowles博士补充说: "公众没有要求公众获得做出值得他们信任的人工智能知情决定的技能,而是需要与他们可能遇到的人工智能不会对他们造成伤害一样的保证。 "
她强调了人工智能文档在创建这个值得信赖的监管生态系统中的关键作用。例如,本文讨论了IBM在AI FactSheets上的工作,这些文件旨在捕获AI开发和测试的关键事实。
但是,虽然这类文件可以提供内部审计师和外部监管机构所需的信息,以评估可信人工智能新框架的遵守情况,但Knowles博士反对依赖它直接促进公众信任。
她说: "如果我们不认识到监督人工智能可信度的责任必须由高技能监管机构承担,那么人工智能文档的未来很有可能是另一种条款和条件式的同意机制,这是没有人真正读懂的。 "
该文件呼吁适当理解AI文档是增强专家评估可信度的一种手段。
Knowles博士说: "人工智能对我们的世界产生重大影响,影响到真正的人;我们需要真正的问责制,以确保遍布我们世界的人工智能正在帮助使世界变得更美好。 "
