如何限制未来的人工智能?
发布时间:2018-12-16 | 发布者: 东东工作室 | 浏览次数: 次随着人工智能技术越来越多地涉及我们的生活,对人工智能做一些限制对我们来说变得非常重要,在某种程度上,用性命攸关来形容也不过分。
人工智能会失去控制吗?
在使用它们时防止可能的风险一直是人类驯服“技术”猛兽的一贯战略。因此,我们拥有非常复杂的电力保护系统,详细的交通规则和无数的交通安全设备,并且还产生了巨大的互联网安全行业。
事实上,由于存在触电危险,我们不会决定关闭整个城市。相反,我们将其限制在一个安全层,让技术安全地为人类服务。今天这种情况正在人工智能面前出现。就像人类第一次面对火焰时的恐慌一样,一百多年的科幻文化让人们在面对人工智能时首先想到的是对机器人统治地球的恐惧。事实上,我认为这种可能性就像一颗撞击地球的行星,它是一种假设,它可以发生,但没有人知道它会在什么时候发生。
然而,随着人工智能的迅速发展和广泛应用,这种新技术的危险性和不确定性逐渐显现。人工智能的“绝缘胶带”和“空气开关”在哪里?不久前,DeepMind在博客中透露了这样一条消息,即AI模型可能会出现混乱和失控。他们正在准备开发一种“AI保险机制”,可以在紧急情况下完全关闭AI。也就是说,一旦发现AI的恶意倾向,系统将主动终止AI的所有活动。
当然,这一领域的研究更多的是定向探索,随后的一系列问题值得我们考虑。如果有像AI保险丝开关这样的设备,在什么情况下会停止AI工作?有没有其他方法可以确保AI的安全性?
需要防范哪些人工智能风险?
就像人类使用火一样,它可能是人类历史上最具破坏性的技术应用,但至少没有人会刻意责怪“火的邪恶”或“普罗米修斯的原罪”。但AI与火有点不同。深度神经网络的复杂性导致AI运行逻辑在某些情况下无法解释或不可预测,这是广泛关注的AI黑盒问题。AI让人感到神秘和可怕,那么AI在应用程序中的危险是什么?
偏见
人工智能已被证明能够学习粗鲁和种族歧视,这是之前关于职业和种族主义遭遇AI偏见的文章。例如,在2016年3月,微软推出了名为Tay的聊天机器人,但在推出后不到一天,Tay从一个可爱的19岁“女孩”变成了一个糟糕的语言和种族主义言论“AI madman”,所以微软急切地删除了这个产品。这种现象的根本原因是人工智能将学习和吸收社交网络上的对话数据。然而,数据本身包含一些偏见和歧视的语言,因此AI学习坏事并将它们组合到行为模式中。我们怎样才能让AI只学习我们认为好的东西?目前似乎没有这个问题的好答案。
欺诈和破坏
人们不仅可以向人工智能教导坏事,还可以直接使用人工智能做恶,这种情况并不少见。2015年,英国已经发现使用AI模型来模仿用户语气来进行邮件和电信欺诈。此外,许多黑客已经证明了使用AI来窃取密码和破解安全性的能力。在许多国家(包括我国),不法分子开始使用人工智能技术伪造电子商务账户和交易订单,从而欺骗投资者继续投资。
超越认知
作为一种计算机算法,它的认知不是基于人类的常识,但很多时候,普通人和研究人员都会忽略这一点。着名的案例是DeepMind在划船游戏中训练AI,并发现深度学习模型最终得出的结论是,不是普通人类玩家可能选择的路线。这种情况非常有必要引起所有人的注意,假设在无人驾驶场景中,AI开始不按照人类交通规则思考,它可能直接从高架桥飞到地面或选择逆行以获得更好的效率。这不是危言耸听。目前的研究发现,只要对道路标志造成一点损害,就会对计算机视觉造成很大的干扰。毕竟,机器看到错误标志的想法并不像人类那样“思考”。
我们可以做些什么来限制AI?
失去对AI本身的控制可能与人类历史上任何其他技术的风险不同。人工智能已经学到了很多数据和复杂的内部变换,因此人类面临的困难是没有像电一样的简单安全法,它会带来难以捉摸的隐患。那么我们如何对AI进行一些限制呢?你可以看到业内有几个想法。应该指出的是,这不是一个可以导致单一结论的讨论。在我看来,当实际对AI进行一些限制时,需要一个全面的解决方案来协同工作。
刽子手理论
该主题可以追溯到我们在开始时提到的DeepMind。他们正在开发的人工智能安全技术,可以理解为复杂的人工智能任务背后,有一个“AI执行者”随叫随到。其原理是重新开发具有强大功能和一套自身安全逻辑的AI系统,并根据强化学习机制随时监控其他AI模型的工作。一旦发现其他AI有风险,AI程序的活动将立即被执行者终止。
事实上,“可中断”的概念一直是DeepMind在AI安全领域的核心概念。2017年12月,他们发布了一份名为“安全可中断智能代理”的研究报告,展示了如何确保智能代理的性能在中断后重新启动时不会受到影响。让AI监控AI在技术上是可行的,但也会引起一些问题。例如,面对日益复杂的深度神经网络,问题可追溯性模型可能消耗难以承受的劳动力成本。另外,谁可以监控这个“AI刽子手”?
原告理论
无论是歧视还是超越认知的行为,它都可以归因于深度学习的黑匣子特征。那么有没有办法透视黑匣子并让人类开发人员找到问题AI的错误点,以便纠正它而不是鲁莽地打断它?我认为使黑匣子安全可控是AI安全领域的主要方向。
目前有两种主要方式来解释黑匣子。
● 一种是使用AI来检查和跟踪AI。例如,我们可以使用注意机制,专门设计神经网络模型来复制和跟踪其他AI模型的轨迹,从而找出错误训练结果的训练源,并帮助开发人员进行纠正。
● 另一种是通过一些工具使深度学习模型的结构可见,这意味着黑盒子变得透明。这样,当AI失败时,研发人员可以相对容易地检查每一层的培训过程并找到问题。
然而,无论是AI检察官还是人类检察官,今天这些黑匣子解释技术通常只涉及不那么复杂的深度学习模型。同时,这些计划一般需要大量人员参与其中。更麻烦的是,它消耗的人力也必须具有相当高的技术水平。
伦理学家
从许多方面来说,阻止人工智能做恶不仅仅是今天的技术问题。例如,培训数据是否有偏差在很大程度上取决于数据提供者本身是否有偏见。同样,许多人工智能歧视问题是由开发人员提高业务效率的愿望引起的,这也是一个道德问题。此外,是否有可能限制开发人工智能武器和人工智能监测工具的愿望将是一个社会和国际责任问题。
转载请标注:我爱技术网——如何限制未来的人工智能?