突破 谷歌关于承担人工智能责任的探索
发布时间:2018-12-18 | 发布者: 东东工作室 | 浏览次数: 次不管人类现在是否已经做好了准备,但人工智能正在改变世界。谷歌表示,我们已经看到人工智能算法应用于智能分类患者来减少医生的工作量,通过准确的智能翻译将记者与全球观众联系起来以及缩短顾客等待服务的时间。但即使我们尝到了人工智能的甜头,但仍然存在对这项技术的质疑。
比如说,在受到公众的反对后,谷歌最近就撤回了一项与军方签订的关于运用人工智能的合同。目前该公司更加重视承担未来人工智能的责任,六月,谷歌发布了人工智能准则,并在本周开始讨论顾客们对人工智能最常见的疑问。这些疑问被分为了四个部分:不公平的偏见,可解释性,团队变迁和行事正确。
不公平的偏见:如何确保学习型机器模型一视同仁的对待所有用户?
学习型机器模型只能保证和被输入的数据保持一致,由于是人类来设定这些数据,因此轻微的偏见就能够造成可测量的差异。谷歌方面解释说,由于算法的高速运算,在此过程中不公平的偏见就被放大了。“人们总认为,偏见是故意为之。人们自然而然地信任与他们有相同想法和信仰的人,而拒绝那些挑战信条的人。 ”
为了解决偏见问题,谷歌在其ML速成课程中创建了教育资源板块,例如公平性推荐实践和公平性模块。该公司解释说,它还注重有关文件和社区拓展。“我对我们采取的策略感到非常骄傲,并且我相信,我们正在发展的认知和工具对人工智能的公平化思考非常有益。但事实上,仅凭一家公司是不可能解决如此复杂的问题,对偏见的抵抗需要集体的努力,还需要一系列利益相关者的共同决策,而我们只能在一旁倾听。世界不断的改变,我们则不断的学习。”谷歌人工智能云 技术的产品管理经理Rajen Sheth在一篇文章中写道。
谷歌人工智能
可解释性:如何使人工智能更加透明,以便更好理解其建议?
为了信任人工智能系统,我们需要知道它为什么会做出决策。传统软件的逻辑可以通过检查源代码来了解,但这对神经网络是不可能实现的,该公司解释说。Google称,他们正在努力取得相关进展,而图像分类正是能展示其透明性的领域。
“例如,在进行图像分类的情况下,Google的人工智能演示了一种人性化概念的工作方法,例如它可以量化直发和卷发,并通过图像确定这些普遍概念。简单说来,它就是一个分类器,能够根据对人类用户最有意义的特征来阐明其推理。例如,一个图像被归类为“斑马”的部分原因在于高度体现的“条纹”特征和更少的“圆点”特征,”Sheth如是写道。
团队变迁:如何在确保今天的团队能够为了明天做好准备,并负责任地利用自动化的力量?
谷歌解释说,我们与工作的关系正在发生变化,许多组织正努力寻找自动化的潜力和员工的价值之间的平衡。虽然并非所有工作都可以实现自动化,但仍需要对可以实现自动化的工作采取措施。谷歌为非营利性组织提供了5000万美元的资金,通过提供培训和教育,为潜在员工提供基于技能和经验的理想工作机会,并为低收入工人提供支持。
做正确的事情:如何确保人工智能用于正途?
最后一个方面是确保人工智能能产生积极影响,现在对于人工智能来说有一大片灰色区域,特别是在人工智能在武器装备领域的运用。“我们的客户发现他们在武器装备领域能够找到一个适用的范围,并希望我们能够帮助他们思考人工智能对他们来说意味着什么。”Sheth写道。
谷歌正在联合客户和产品团队共同合作开发这些灰色地带,它解释说,为了让该项目能够从外人的角度来看,他们还吸收了社会学家Shannon Vallor作为团队的一份子。“深层次的道德分析可以帮助我们了解视觉技术的哪些潜在用途是不恰当的,有害的或富有侵扰性的。道德决策实践可以帮助我们更好地进行危机处理和复杂的价值权衡。比如说是优先考虑人工智能应用中的透明化还是保护隐私度,这必定是一场此消彼长的争夺。
转载请标注:我爱技术网——突破 谷歌关于承担人工智能责任的探索