对于人工智能的恐惧及其5个解决方法
2019/10/14 9:26:17

实施人工智能技术的IT领导人可能会感到一些恐惧,这有着充分的理由。  人工智能在拥有数十年发展和应用历史的同时却有着奇怪的定位,但对于许多人来说,人工智能仍然是一种未来主义的感觉。实际上人工智能并不是新事物,但它始终是一个永恒的“新”领域。没有人可以确切地知道其发展到底会何去何从。  对于不了解的事物,一些人会感到害怕。而人工智能的未来发展也让很多人彻夜难眠,这是有道理的,尤其是考虑到可能出现的不利后果时。人们可以合理地假设任何重大技术发展都是如此:它们将会产生变化,从而令人感到恐惧。但是,与人工智能相关的恐惧却有不同的优先级。例如,大多数人不知道什么是微服务架构,即使他们每天使用的一些应用程序是以分离的方式构建的。但是像微服务这样的技术进化并不会像人工智能那样对潜在的社会和经济影响产生这样的情感反应。微服务也不会在流行文化中一直存在。  这主要说明了人们对人工智能发展前途并不明朗的担忧,当人们的想象力失控时,就会很难评估它们的有效性。这对于如今试图构建实用人工智能战略的IT领导人和其他高管来说并不是特别有用。然而,很多人会对人工智能感到恐惧,并且有着充分的理由。对于人工智能的入门者来说,他们更容易失败,因为他们通常基于当前的现实,而不是未来的推测。  加州大学欧文分校神经科学研究助理、ContinualAi公司联合负责人Keiland Cooper表示,“人们对人工智能的恐惧类型取决于人们所谈论的人工智能类型。与当今普遍使用的更现实的人工智能算法相比,理论性更强、更遥远的‘通用人工智能’(一种能够完成人类所能做的所有事情的计算机)将引发更多的恐惧。”  以下了解一下当今有关人工智能的五个问题,以及专家为解决这些问题而提供的建议,这样就不会破坏企业实施人工智能的计划。  1. 恐惧:人工智能会产生有偏见的结果  人们越来越关注人工智能系统中的偏见和其他问题及其导致的决策或结果的可能性。与好莱坞电影的一些更富想象力的人工智能故事不同,人们应该对于人工智能的偏见感到恐惧。  SkyMind公司联合创始人兼首席执行官Chris Nicholson说,“人工智能的算法只和训练数据一样好。因此,如果一个数据集包含了组织的历史偏见,那么它所做的预测将反映这一历史行为,例如,如果一家公司通常会将拥有常春藤名校学位的白人男性提升到权威职位,那么经过培训的人工智能算法可以识别出未来的领导才能,并将其重点放在同一类型的应聘者身上,并且忽略不属于该类别的应聘者。”  解决方法:  人们应该接受这种恐惧并采取行动。无需担心人工智能偏见会增加其不受控制地扩散的可能性。  人工智能算法不应免除个人和组织对结果的责任。人工监督和管理是绝对必要的,并且有很好的例子说明了另一种恐惧(不再需要人类)可能有点言过其实。  Nicholson说,“人们不能相信人工智能能够知道一切或做出完美的决定。人工智能算法是由人类创造的,但人类也会犯错。所以每个公司都要做的是建立一个系统来检查人工智能,或者定期抽取人工智能的决策样本并展示给专家,并询问他们:这看起来正确吗?而其结果至少不会比专家差,这是企业最初所希望的结果。”  这在医疗、保险、银行、政府等行业可能尤为重要。但事实上,在任何地方这都是一个重要的问题。  Tara-Ai公司联合创始人兼首席执行官Iba Masood表示,“人工智能从业者和机器学习工程师必须确保他们在一定程度上遵守算法责任制,IT主管应该有专门的数据团队为他们现有的数据集构建消除偏见的程序。这将有助于在利用系统进行决策过程中,特别是在涉及最终消费者的情况下,需要实现一定程度的公平和公正。”  这是一个道德和公平

下一页
返回列表
返回首页
©2024 智能硬件世界----智能硬件产业门户网站 电脑版
Powered by iwms