OpenAI现实文本生成人工智能引发道德问题

日期:2019-02-25 21:20 作者:和记娱乐官网 来源:和记娱乐

  与之前的大多数研究不同,OpenAI决定对这款人工智能保密,因为它可能会被滥用。尽管该团队提供了技术论文,但他们并未发布培训代码、数据集或人工智能模型。

  由埃隆.马斯克创立的人工智能研究机构OpenAI开发了一种人工智能,可以生成迄今为止最真实的文本段落。这是该人工智能撰写的一段文字摘录,这段文字中探讨了发现了一种独角兽,当然,内容是假的:

  这位科学家将这种生物种群命名为Ovid独角兽,这主要是因为它们有独特的角。这些有四个角的、银白色的独角兽此前并不为科学界所知。

  该人工智能非常引人注目,因为它设法在多个段落上形成一致的对话而不会出现重复错误或偏离主题。虽然结果令人印象深刻,但它们完全符合当前的研究进展。

  与之前的大多数研究不同,OpenAI决定对这款人工智能保密,因为它可能会被滥用。尽管该团队提供了技术论文,但他们并未发布培训代码、数据集或人工智能模型。

  GPT-2是我们最接近于实现会话式人工智能的一款人工智能。虽然会话式人工智能远未出现,由该技术支持的聊天机器人可以通过聊天,给医生提供建议,为准备自杀的人提供建议,改进翻译系统并改善跨应用程序的语音识别。

  尽管OpenAI承认这些潜在的好处,但它也承认发布该技术的潜在风险。滥用可能包括在线冒充他人,产生误导新闻标题,在社交媒体上自动化发送虚假帖子。

  但我认为,即使没有这种人工智能,这些恶意应用程序已经成为可能。已经存在着可以用于这些目的的其他公共模型。因此,我认为不发布此代码对社区更有害,因为A)它为开放式研究开了一个不好的先例,B)阻止公司改进其服务,C)不必要地炒作这些结果,D)可能引发普通大众对人工智能不必要的恐惧。

  开源文化促进与更广泛的社区共享代码、数据和资源。今天的人工智能之所以变成一种可能,是因为谷歌、Facebook之类的公司免费提供了他们的人工智能构建软件。研究人员们还可以自由地发布他们的代码, A)这是一种允许其他人验证并重复他们的结果的方法,而且B)让软件工程师们可以使用他们的软件。事实上,今天你使用的绝大部分的网站和应用程序有80%以上可能都是在开放源代码、免费代码的基础上构建的。

  具有讽刺意味的是,OpenAI的新立场违背了它的使命。OpenAI“旨在与其他机构和研究人员自由合作,向公众开放其专利和研究。”也许像“OpenAI(有时)”这样的新名称可能更吻合其新的使命。它的新立场违背了开源的一般精神,这种精神有助于推动人工智能研究以极快的速度发展。

  绝大多数人工智能代码都是开源的。虽然技术论文和代码不足以让高级人工智能系统运行,但是任何拥有技术知识和计算资源的人都可以下载代码来生成虚假的奥巴马语音,制作最近以40万美元以上的价格出售的人工智能艺术品,或者培训自驾车汽车。这包括由领先的人工智能实验室——Facebook 人工智能研究(FAIR)、Google Brain、Google Deepmind和OpenAI发布的代码。

  但OpenAI选择将这个模型保密,这促使社区质疑其道德准则。虽然我认为OpenAI的立场过于夸张,但它促使研究界讨论新人工智能的道德含义。至少,它应该迫使研究人员批评对其技术的、各种潜在的滥用。虽然它可能不会改变研究结果,但它可以迫使社区想出最小化滥用的方法,甚至想出检测它的对策。

  媒体喜欢关注人工智能的缺点,因为终结者式的叙述会产生大量的网络流量。但是,我们很少关注人工智能已经使我们的生活变得更美好的地方。

  人工智能帮助医生改善对各种癌症的检测。它可以帮助科学家开发新药、寻找外星生命、实现文本翻译、降低数据中心的能源使用、检测欺诈、阻止人口贩运,并通过智能手表挽救生命。有影响力的人工智能应用的列表太实在是太长了,无法在这里尽述,但是你可以明白这种情况了。

  OpenAI将该模型保密的决定确实让坏人更难以使用这些模型进行宣传或试图影响公众舆论。但是,这不太可能产生重大影响。拥有货币资源的实体可以与熟练的研究人员签订合同,重建这一模型,然后收集数据并在昂贵的GPU上进行训练。虽然这样的努力可能花费至少20万美元以上,但OpenAI的立场不太可能阻止坏人们采取这一选择。

  从大的人工智能失败中可以清楚地看出,社区必须制定行为准则以帮助最大限度地减少滥用。然而,对研究成果保密为社区开创了一个不好的先例。按照这种逻辑,英伟达应该开始控制GPU销售,就像洛克希德.马丁控制军用飞机的销售一样。谷歌和Facebook应该将他们的深度学习框架——Tensorflow和Pytorch深藏不露,以防止人们轻松构建神经网络。人工智能研究人员应该获得美国政府的批准才能开启他们新的职业生涯。看明白了吗?

  控制人工智能可不仅仅是一个模型的事。如果我们想要严格解决限制人工智能滥用的问题,我们必须提出替代性的长期战略。也许是一个自我调节机构,人工智能研究人员注册并同意遵守核心道德规范,或建立法律要求,规范人工智能代码应如何发布和监控,以及代码作者应该如何对滥用行为负责。

      和记娱乐,和记娱乐官网