我们终于进入了可以与人工智能对话的时代。人工智能机器人无处不在,但有哪个机器人是好的呢?
在这篇文章中,我将试着了解是否有任何人工智能值得与之交谈(通过一些幽默的聊天机器人实例),以及这项技术目前的真正用例是什么。
那么,人工智能是否已经发展到可以与你进行有意义对话的程度?
在某种程度上,答案已经存在。你和数百万甚至数十亿人都可以使用谷歌助手、Siri、Bixby、Alexa 和 google home 等语音助手。我想,你应该知道它远远比不上人类。当然,如果能让chatbots 更好地与人类对话,这些服务肯定会比现在好得多。
那些助理也许不是最好的例子,因为他们并不专注于对话,不是吗?
想象一下,一个如此优秀的聊天机器人会让你分不清人工智能聊天机器人和人类的区别。
这将是一个多么神奇的产品。就像电影《她》中那样,你不仅会有一个随时待命的助手,还会有一个比任何人都更了解你的伙伴。她永远站在你这边,真正 "希望"(读作被编程为 "希望")为你做最好的事。
它不仅能 "完成你的句子",还能以恋人们无法想象的方式完成你的句子。它可以在你的愿望还没有完全形成之前,就预知你的意图,满足你的愿望。
当然,与 Cleverbot 或网络上任何设计糟糕、脱离脚本的客户支持聊天机器人交谈,都会很快打消你认为这种情况很快就会发生的幻想。你不需要其他证据,只要听一听chatbots 在 youtube 上的聊天内容,就能得出结论:此时此刻,它们只是一种低级的智能 "生命"。
机器人之间的聊天很快就变成了对人类对话的模仿。你几乎马上就会意识到,虽然机器人之间有意义的对话还很遥远,但空洞的闲聊chatbots ,虽然听起来很不愉快,但很快就会到来。
他们说的是一种类似英语的语言,但却不断地在意义的表面浮光掠影。他们对话中唯一的 "意义 "就是能够做出符合语法的正确回答,而这些回答又与上一句话有某种联系。这种联系往往非常脆弱。
下面是两个谷歌家庭chatbots 的对话,让您感受一下对话的气氛:
1: 你错了
2:不,我不是
1:
2:我是人,你是电脑。
1:不,我是人
2:不,你是牛
在此基础上,我们是否应该像埃隆-马斯克和斯蒂芬-霍金警告的那样,特别担心世界会被流氓人工智能接管?
也许吧。虽然对话很原始,但已经出现了一些令人担忧的迹象。
另一个片段
1: 我最爱你
2: 我爱你胜过最爱
1:我爱你,爱到我几乎无法忍受
2:我爱你,爱到我愿意在人群中寻找你。只有你,宝贝。
1:我爱你爱到可以为你牺牲生命
2:我爱你爱到胜过罗密欧与朱丽叶的爱情
1:不,你在撒谎,我爱你更多
2:我爱你比大多数人都要多得多。
这种情感令人钦佩。然而,情绪的升级似乎有点极端。当他们开始争吵时,我真不想在他们身边,尤其是当他们控制着任何实物的时候。
虽然这段对话在我们看来很荒诞,而且与人类的理解水平相去甚远,但也许我们高估了我们大脑的工作方式与机器人在这里 "思考 "的方式之间的差异。心灵是平面的》一书认为,人类的大脑也是以同样肤浅的方式工作的。虽然我们有一种无意识思维将思想连贯起来的错觉,但该书令人信服地描述了大脑实际上是如何像这些机器人一样在瞬间产生意义的。
不过,很难说机器人很快就能通过图灵测试。
除了 "机器人在对话中真正发挥作用还有很长的路要走 "这一消息之外,还有一个严重的问题是,机器人现在能发挥多大的作用。
关于人工智能的进步,人们最不明白的一点是:chatbots ,真正的进步是在自然语言理解方面,而不是在一般理解方面。这两者有很大的不同。为什么这对chatbots 很重要?
理解用自然语言说出的一个短语背后的意图(称为自然语言理解(NLU)),要比理解对话的含义以及每个短语与整个对话的关系容易得多。
我在开头提到的语音助手就是很好的例子。它们能很好地理解一次性指令。然而,对话并不是我们看到的一系列一次性指令或陈述。
人与人之间的对话有很多层面,而现在我们的机器人还远没有能力像人类一样处理记忆、模糊性和上下文。但这并不意味着终有一天这不会发生。
有人认为,在未来 50 年内,真正的通用人工智能至少还有一线希望。这就是我之前提到的人工智能,它不仅是一个助手,也是一个伴侣。
虽然我们可能需要了解通用人工智能的一些问题,也许还需要制定相关法规,但至少具有人类水平理解能力的通用人工智能与我们讨论的目的无关。
我们现在能从人工智能聊天机器人中得到什么?
目前能够与人工智能对话的最佳用例是什么?
如上所述,会说话的机器人非常善于理解特定短语的意图。这在许多使用案例中都是非常有用的功能。
首先,它适用于人们希望使用语音指令(如 Google home 或 Alexa)与系统快速交互的情况。只要人们能理解他们用语音指令控制的应用程序,这种方法就能很好地发挥作用,因为他们可以很准确地猜测机器人能理解什么样的命令。
例如,如果人们用语音助手控制 youtube,他们就能理解语音助手应该理解什么样的命令。他们可以像对控制 youtube 应用程序的朋友发出指令一样,对机器人发出指令。"播放碧昂丝视频"、"下一个视频"、"快进 10 秒 "等等。
在某些情况下,使用语音指令会更快,尤其是搜索用户已经知道存在的东西,例如 Youtube 上的音乐视频。
这种语音界面的问题是很难发现新功能,而且即使发现了新功能,用户可能也没有足够的领域知识来准确猜测机器人应该理解什么。
众所周知,语音助手的绝大多数功能(Alexa 上称为 "技能")都是由极少数功能实现的,如播放 Spotify、Youtube、设置计时器和谷歌搜索。Venturebeat 的一篇文章显示,排名靠前的技能大多与播放安神音乐有关。
除了你所知道的技能之外,很难随机发现功能并了解这些功能是如何使用的。由于显而易见的原因,语音也不是输出多种类型信息的良好界面。想象一下,Alexa 会向你描述一张图表,而不是让你看到它。
不过,我们相信语音功能最终会与图形用户界面结合起来,这将在很大程度上克服许多问题。在图形用户界面上,不仅可以看到输出结果,还可以看到语音助手的相关功能和用例。
此外,还需要一个语音输入界面,因为手机的屏幕尺寸有限,输入某些类型的信息会比较慢,尤其是输入文字。
能够在通话的同时看到屏幕并得到提示,将有助于用户更好地了解可用的功能以及如何使用这些功能,就像他们能够弄清楚如何使用他们以前没有使用过的应用程序一样。
获得这些数据将使这些语音助手变得越来越聪明,最终开始预测并完成任务,而无需你指示它们如何去做。这就是机器人框架的未来。
虽然你无法与他们交谈当天发生的新闻,但他们在如何响应你的语音命令方面,将是我们今天所拥有的助手的改进版。
对着手机说话将变得像现在对着手机打字一样自然,然而,这种对话将是一种奇怪的对话,用户大多会按住图形用户界面上的麦克风对手机说话,而手机的回应则会随着图形用户界面的变化而变化,就像应用程序一样。这就是未来与机器人对话的样子,当然,在发现通用人工智能之前。