我們終於進入了能夠與AI交談的時代。人工智慧機器人無處不在,但機器人有什麼好處嗎?
在本文中,我試圖看看是否有任何AI值得與之交談(有一些幽默的聊天機器人示例),以及這項技術現在的真正用例是什麼。
那麼,人工智慧已經發展到可以與你進行有意義的對話的程度了嗎?
在某種程度上,答案已經在那裡。您以及數百萬甚至數十億人都可以使用 語音助手 ,例如Google Assistant,Siri,Bixby,Alexa和Google Home。我猜你知道它遠不如人類。當然,如果有可能的話 chatbots 在人類層面的對話中更好,這些服務會比現在好得多。
這些助手可能不是最好的例子,因為他們不專注於對話,對吧?
想像一下,一個如此出色的聊天機器人,你無法分辨人工智慧聊天機器人和人類之間的區別。
那將是一個多麼了不起的產品。就像在電影“她”中一樣,你不僅會有一個永遠在線的助手,你會有一個比任何人都更瞭解你的同伴。一個總是站在你這邊的人,真正“想要”(閱讀被程式設計為“想要”)對你最好的。
它不僅能夠“完成你的句子”,它還會以戀人無法想像的方式完成你。它可以預測你的意圖,並在慾望在你的腦海中完全形成之前滿足你的願望。
當然,與 Cleverbot 或網路上任何設計不良、腳本外的 客戶支援聊天機器人 交談將很快消除您可能對這種情況即將發生的任何幻想。你不需要其他證據,只需要聽 chatbots 在YouTube上互相聊天,得出的結論是,他們此刻是智慧“生命”的低階。
機器人之間的機器人聊天很快就會淪為對人類對話的模仿。你幾乎會立即意識到,雖然機器人之間有意義的對話很遙遠,但空洞的八卦 chatbots,儘管聽起來令人不快,但即將到來。
他們說的語言類似於英語,但不斷在意義的表面上滑冰。他們談話中唯一的「意義」是能夠形成語法正確的回答,這些回應以某種方式與最後說的話聯繫在一起。這種聯繫通常非常脆弱。
只是為了讓你了解談話是什麼樣的,這裡有兩個谷歌主頁 chatbots 互相交談:
1:你錯了
2:不,我不是
1:那你是什麼?
2:我是一個人。你是一台電腦。
1:不,我是一個人
2:不,你是一頭牛
在此基礎上,我們是否應該特別關注世界被流氓人工智慧接管,正如埃隆馬斯克和斯蒂芬霍金所警告的那樣?
好吧,也許吧。儘管這種對話很原始,但已經有一些令人擔憂的跡象。
另一個片段:
1:我最愛你
2:我愛你勝過最愛你
1:我太愛你了,我幾乎受不了
2、我太愛你了,我會在人群中尋找你。只有你,寶貝。
1: 我非常愛你,我願意為你犧牲我的生命
2:我愛你勝過羅密歐與朱麗葉的愛
1:不,你在撒謊,我更愛你
2:我愛你勝過愛你,甚至比大多數人都愛你。
這種情緒令人欽佩。然而,情緒的升級似乎有點極端。我討厭在他們開始戰鬥的時候在身邊,特別是如果他們控制著任何物理物體。
雖然這種對話對我們來說似乎很荒謬,而且遠非人類層面的理解,但也許我們高估了我們的大腦與機器人在這裡“思考”的方式有何不同。《心靈是平坦的》一書認為,人類的思維以同樣膚淺的方式工作。儘管我們有一種無意識思維的錯覺,它將思想連貫地聯繫在一起,但這本書令人信服地描述了心靈是如何在一時衝動中產生意義的,就像這些機器人所做的那樣。
也就是說,很難說機器人很快就會通過圖靈測試。
除了機器人在對話中真正有用之前還有很長的路要走之外,這裡還有一個關於它們現在有多大的用處的嚴重問題。
人們對人工智慧的進步未能理解的最重要的事情 chatbots 是真正的進步是在自然語言理解方面取得的,而不是一般的理解。有很大的不同。 為什麼這對 chatbots?
理解用自然語言說出的一個短語(稱為自然語言理解 (NLU))背後的意圖比理解對話中的含義以及每個短語與整個對話的關係要容易得多。
我在開頭提到的語音助手就是很好的例子。他們在理解一次性指令方面做得很好。然而,對話並不是我們看到的一系列一次性指令或陳述。
人類對話有很多維度,現在我們遠沒有機器人能夠像人類那樣處理記憶、歧義和上下文。這並不意味著有一天不會發生這種情況。
有些人認為,在未來50年裡,至少存在真正的通用人工智慧的外部機會。這就是我之前談到的那種人工智慧,它不僅是一個助手,而且還是一個伴侶。
雖然可能需要瞭解廣義人工智慧的問題,也許還需要瞭解需要制定的監管,但至少具有人類水準理解的廣義人工智慧與我們的討論目的無關。
我們現在可以從人工智慧聊天機器人中期待什麼?
就現在能夠與AI交談而言,最好的用例是什麼?
如上所述,會說話的機器人非常擅長理解給定短語中的意圖。事實證明,這對於許多用例都是有用的功能。
首先,對於人們希望使用Google Home或Alexa等語音命令與系統快速交互的情況,它很有用。只要人們理解他們使用語音命令控制的應用程式,這就可以很好地工作,因為他們可以非常準確地猜測機器人將理解哪種命令。
例如,人們了解語音助手應該理解什麼樣的命令,如果他們使用它來控制YouTube。他們可以指導機器人的方式與指導控制YouTube應用程式的朋友的方式大致相同。 “播放碧昂斯視頻”,“下一個視頻”,“快進10秒”等。
在某些情況下,使用語音命令會更快,尤其是搜索用戶已經知道存在的內容,例如 Youtube 上的音樂視頻。
這種語音介面的問題在於很難發現新功能,即使找到了新功能,使用者也可能沒有足夠的域知識來準確猜測機器人應該理解的內容。
關於語音助手的一個眾所周知的事實是,很少有功能(在Alexa上稱為技能)占其使用的絕大部分,例如播放Spotify,Youtube,設置計時器和進行Google搜索。Venturebeat上的一篇文章顯示,排名靠前的技能主要與播放平靜的音樂有關。
除了您瞭解的技能之外,很難隨機發現功能並瞭解該功能的使用方式。出於顯而易見的原因,語音也不是輸出多種類型資訊的良好介面。想像一下,Alexa向你描述一個圖表,而不是你看到它。
然而,我們相信語音功能最終將與圖形UI相關聯,這將在很大程度上克服許多問題。您不僅可以查看輸出,還可以在圖形UI上查看語音助手的相關功能和用例。
此外,還需要用於輸入的語音UI,因為行動電話的螢幕尺寸有限,因此它們輸入某些類型的資訊(尤其是鍵入單詞)的速度可能很慢。
能夠在他們說話的同時看到螢幕並被螢幕提示,這將有助於使用者更好地瞭解可用的功能以及應該如何使用它,就像他們可以弄清楚如何使用他們以前從未使用過的應用程式一樣。
獲取這些數據將使這些語音助手變得越來越聰明,並最終開始預測和完成任務,而無需您指導他們如何完成任務。這是 機器人框架的未來。
雖然您將無法與他們就當天新聞中發生的事情進行對話,但它們將成為我們今天擁有的助手如何回應您的語音命令的改進版本。
與手機交談將變得像現在輸入手機一樣自然,但是,對話將是一個奇怪的對話,使用者大多按住圖形UI上的麥克風與手機交談,並且回應來自圖形UI的變化,就像應用程式一樣。這就是未來與機器人交談的樣子,當然,直到發現一個通用的人工智慧。