的问题。Masood认为,人工智能伦理也可能成为一种竞争性的区分标准。  Masood说,“我相信,未来五年将会有更多的具有公平意识的消费者,他们希望与那些在人工智能辅助下的决策过程中部署公平机制的公司进行交易。通过努力减轻用于基于决策的系统的数据集的偏差,IT团队可以在这种消费者行为转变中产生重大影响。”  2.恐惧:人们不知道人工智能为什么会这么做  这是对未知事物的另一种自然恐惧:许多人工智能的结果很难解释。  Nicholson说,“人工智能最先进的形式能够对数据做出最准确的预测,但也最难解释为什么做出这种预测。”  这有时被称为人工智能的“黑盒”,指的是缺乏对人工智能系统决策的可视性,这对许多组织来说可能是一个重要的问题。  Nicholson说,“在许多情况下,人们都需要知道为什么要做某事。在受到严格监管的行业组织中尤其如此。例如医疗保健行业不希望人工智能算法在不知道为什么做出决定的情况下就患者的诊断或治疗做出决定。”  Cooper提供了另一个场景,指出黑盒模型在出现问题时变得特别重要。  Cooper说,“假设训练一种算法来挑选最佳股票,并且做得很好,可能赚取9%的利润。如果在金融投资中获得了足够或更好的回报(如果Cooper的假设合理的情况下),那么可能就不太在乎其原因。毕竟已经获得。但是如果损失了9%的成本应该怎么办?如果失去了一切那么该怎么办?人们可能会更关心的是为什么。”  他说,“问题在于,在许多情况下,人们不知道为什么要选择它所选择的东西。这很可怕,因为它不仅使人们减少了与正在使用的人工智能系统的联系,而且如果它做错了什么,也不会带来太多的洞察力。”  解决方法:  解决这种恐惧的最好方法之一是确保即使在人工智能技术得以改进的情况下,人类的智能和决策仍然是任何过程中至关重要的部分,在某些情况下还是最终的部分。换句话说,即使人工智能在这些流程和决策中的作用不断扩展,也可以通过确保人们保留对流程和决策的适当控制来缓解这种恐惧。  Nicholson说:“在医疗保健案例中,最好采用人工智能作为人类专家的决策支持形式。也就是说,不能让人工智能独自运作并且不受监督。可以将人工智能集成到现有的决策过程中,在此过程中可以向人类专家提出建议,并且专家将是做出最终决策的人,他们将能够解释做出该决定的原因。”  3.恐惧:人工智能将会做出错误的决定  人工智能将会做出错误的决定,这是一个非常明确的问题。如何评估人工智能结果的准确性和有效性?如果它做出错误的选择会怎么样?(可以看到这些恐惧的某些组合是如何产生复合效应的:如果人工智能做出错误的决定而无法解释原因,将会发生什么情况?)假设所有人工智能产生的结果都是“良好”的结果,那么即使是对于人工智能应用最乐观的人士也会感到不舒服。  偏见会导致错误的决定。不过,这实际上是一种更为广泛的恐惧,这种恐惧除了其他负面影响之外,还可能导致团队不信任任何的人工智能得出的结果。当人工智能团队之外的人(或者IT部门)分析结果时,这种可能性就更大。它还可能导致组织的业务发展停滞。  Very公司工程主管Jeff McGehee说,“许多人担心人工智能会做出错误的决定。从技术角度来看,这种恐惧通常是非常广泛的,但它总是归结为人们认为“这个决定是不正确的。对于从业者来说,这一点很难确定,尤其是在无法给出‘良好’决策的量化定义的情况下。”  解决方法:  人为因素的重要性再次占据主导地位。如果人们无法量化什么是积极的结果,那么需要提出一个定性的框架,同时确保依靠正确的人员和信息组合来解决诸如偏见之类的实际问题。  McGehee

下一页 上一页
返回列表
返回首页
©2024 智能硬件世界----智能硬件产业门户网站 电脑版
Powered by iwms