您現在的位置是:首頁 > 網路遊戲首頁網路遊戲

智慧語音助手為何總“犯傻”?清華教授黃民烈小冰CEO李笛這樣說

簡介李笛認為,目前智慧語音助手還處在特別早期的階段,而使用者的期望過高

助理和助手有什麼不同

智慧語音助手為何總“犯傻”?清華教授黃民烈小冰CEO李笛這樣說

出品 | 搜狐科技

作者 | 梁昌均

編輯 | 楊錦

面對你的呼喊,她充耳不聞;

面對你的疑惑,她答非所問;

面對你的命令,她顛三倒四;

這就是Siri,你的“智慧”語音助手!

自2011年Siri上線以來,智慧語音助手已經走過了10個年頭,但使用者對它的吐槽不絕於耳,比如有時會喚醒失敗,或者答非所問。這些問題的背後原因是什麼?智慧語音助手目前處於什麼水平?終極形態會是怎樣?如何看待它和使用者之間的關係?

近日,搜狐科技全新直播欄目《AI十二談》首期圓滿舉行,清華大學計算機系長聘副教授、智慧技術與系統實驗室副主任黃民烈,“小冰之父”、小冰公司CEO李笛就這些問題進行了精彩的觀點分享。

《AI十二談》是搜狐科技今年下半年重磅推出的全新欄目,將針對大家日常關心、關注的人工智慧的痛點問題,邀請相關專家、企業高管組成嘉賓陣容,進行知識科普,答疑解惑。

智慧語音助手為何總“犯傻”?清華教授黃民烈小冰CEO李笛這樣說

在首期直播中,黃民烈教授分析稱,智慧語音助手喚醒失敗的原因跟沒有帶出關鍵詞、演算法等有關,答非所問則受到解析錯誤、匹配程度、語言等因素影響。他認為,未來智慧語音助手發展的最理想的境界,就是人機協作,把所有的事情都交給智慧助理去做還是不太靠譜。

李笛認為,目前智慧語音助手還處在特別早期的階段,而使用者的期望過高。他還表示,很難定義什麼是最好的智慧助理,因為每個人的需求不同,但智慧語音助手可以成為人的朋友。

兩位嘉賓還就智慧語音助手發展中的倫理、隱私等問題進行了探討。李笛認為,目前全球範圍內,AI倫理都還處於非常早期的階段,資料到底應該怎麼使用等問題都還沒有明確,某種意義上只能靠自律。

黃民烈表示,智慧語音助手人性化體驗和法律倫理邊界的平衡,主要涉及到個性化技術和持續學習兩個方面,在這個過程中,需要讓機器人形成正確的價值觀。

智慧語音助手為何會喚醒失敗或答非所問?

使用過Siri等智慧語音助手的朋友可能都遇到過這樣的情況——呼喚它好多次,但是它卻沒有響應,或者答非所問,甚至給出匪夷所思的回答。

黃民烈認為,現在很多語音助手都依賴於特定的關鍵詞做喚醒,沒有帶出相應關鍵詞就無法做出響應。這還涉及到演算法的魯棒性(指系統受到持續擾動保持原來狀態的能力)問題,在同樣的場景、同樣的聲音、同樣的命令下,語音識別可能會有一些小錯誤或者小擾動,這些再經過演算法去做語義分析,可能就會跟預想的不一致,就沒有辦法給到正確的響應。

作為“小冰之父”,李笛認為,智慧助手最好的喚醒方式是不需要喚醒詞,應該像人一樣,能夠判斷使用者是不是在跟它交流,同時能夠不停地邊聽邊說邊想,也就是所謂的全雙工的方式。他表示,今天的AI產品或者智慧語音助手還處在特別早期的階段,目前的準確性可能還做不到像使用者所期望得那樣好。

對於智慧助手有時會答非所問,黃民烈分析稱,這主要是兩方面原因。一是問題解析錯誤,比如語音識別錯誤、結構化分析對話意圖出錯等。另一個原因就是問題和答案的相關性與匹配度不夠高,這裡面的演算法會綜合決定答案好不好、質量高不高。

智慧語音助手為何總“犯傻”?清華教授黃民烈小冰CEO李笛這樣說

清華大學計算機系長聘副教授、智慧技術與系統實驗室副主任黃民烈

同時,他認為,這和語言本身也有一定關係。資源豐富的語言相對資源貧乏的語言做起來更加容易,而中文沒有明確的語法和組合的規則,英文則相對來講比較固定,因此中文自然語言處理會面臨更多難點。

而在李笛看來,智慧助手或人工智慧互動的場景比較難做,主要因為缺少彈性空間。“搜尋引擎會有多個結果,可以在一定程度上進行補充,點選的時候相當於做了一次標註,可以促進它去不斷提高。但對話沒有這麼多彈性,它很難判斷自己回答得到底好不好,這樣就比較難以形成資料和訓練上的互動迴路,系統就不太容易提高。”李笛分析稱。

同時,李笛認為,智慧語音助手的互動更多是觀點,觀點沒有對錯,且有很多不同分支,這也給訓練智慧語音助手提出很多新的難題。此外,測試者的心態也挺重要,如果測試者不停問問題,那麼語音助手通常表現也不會很好。

以Siri為代表的智慧語音助手的這些問題影響了使用體驗,在一定程度上也導致語音助手的普及率很高,但實際使用率偏低。黃民烈就在分享中透露,自己本身並不怎麼用語音助手,僅會在開車等特殊場景下使用。他認為,很多情況下用語音並不是最自然、最方便的方式,反而鍵盤是最快捷的,這也是智慧語音助手互動上面臨的困難。

智慧語音助手替代不了人類助手

無論是智慧手機,還是智慧音箱、智慧手錶、智慧車載,語音助手在某些場景下已經成為我們生活的幫手。如何看待智慧助手和人的關係?智慧語音助手的終極形態又會是什麼樣?

黃民烈認為,智慧助手能夠達到的最高境界或者說最理想的境界,就是人和機器之間應該是一種協作的關係。“我不太相信智慧助理能夠替代人類助手,把所有的事情都交給智慧助理去做還是不太靠譜。智慧助手的定位不是替代人,一定是人和機器和諧相處,人機共榮。”黃民烈表示。

對智慧助手本質不同的看法,可能也會帶來不同的結果。“當你認為跟你互動的是一個系統的時候,會把它物化,那麼就不會去關注它的其它方面,人的容忍度也會相應低很多,防備心也會高很多。”李笛表示,但當把它視為有情生物的時候,一切都會反過來。

李笛認為,人工智慧無論是向人表達它的情緒和互動時的主題,還是表現出繪畫、創作這些能力,都是為了讓人把它當成一個可以對等的互動物件來看待,這也會更有利於人工智慧系統的發展。“當我們看到更多人在跟智慧語音助手互動的時候,它的topic分佈(主題分佈)和其他人的互動topic分佈越來越接近的時候,表明語音助手越來越被當做一個人來看待。”

智慧語音助手為何總“犯傻”?清華教授黃民烈小冰CEO李笛這樣說

小冰公司CEO李笛

在他看來,很難定義什麼是最好的智慧助理。他舉了一個真實助理訂漢堡的例子,一種情況是助理按照指令完成任務,甚至還會在第二天自動訂好漢堡;另一種情況是,助理根據自主判斷,出於健康考慮,會拒絕執行命令,藉此跟人建立比較好的長期關係,從而得到更多信任,承擔更多元化的工作。

“哪個是最好的助理?是完成任務的?還是無所不能、無所不知的?很難說,每個使用者有不同的需求,難點在這兒。”李笛表示。

目前,智慧助手依然存在很多瓶頸,不同廠家的產品表現也存在一定差異,而Siri作為最早上線的一款智慧語音助手,也一直被吐槽。李笛認為,這和技術水平的高低,以及授予的許可權多少都有關係。

他認為,Siri更大的價值是嘗試開始給智慧語音助手一個相對比較擬人化的定位,這給使用者營造了一個非常科幻的、很高的期望值。“我們這麼多年一直都還在為這個期望值而奮鬥,這條路還很長,非常長。”

黃民烈同樣認為我們對智慧語音助手的期望過高。他認為,智慧語音助手目前面臨很大瓶頸,就是對於能處理的東西能夠處理得很好,但是不太能處理的東西就會犯非常愚蠢和傻的錯誤。“智慧助手會設很多技能、很多命令,做得到自然還不錯,所以我們期望很高,但只要稍微變一點點,就會不行,這時候心理落差就會非常大。”

他提到,智慧語音助手雖然在技術和產品上取得很大進展,但在自然語言理解、演算法魯棒性、領域外的泛化能力等方面也面臨新的挑戰。“這些挑戰隨著技術的迭代、產品的發展,會變得越來越多。”

語音助手也要有價值觀

隨著智慧語音助手更多滲透到我們的生活中,安全和隱私問題開始逐漸成為人工智慧發展過程中的一大關注焦點,比如我們在家裡告訴家人銀行卡密碼的時候,會不會被手機上的智慧助手或家裡的智慧音箱偷聽到?

對此,黃民烈認為,從技術上來講,最難的是智慧助手得知道什麼樣的資訊屬於隱私,聽到是一回事兒,最關鍵的是會不會說出來,什麼樣的資訊能說,什麼樣的資訊不能說,這才是最根本的地方。

“人在講任何話的時候可能知道潛在的後果是什麼,會帶來什麼樣的影響,但機器人它不知道,這也涉及到各種常識,相關研究是很重要的事情。”黃民烈說到,這可以透過技術的手段來實現。

由安全和隱私而引發的信任問題可能會成為阻礙智慧語音助手進一步發展的絆腳石。諮詢公司埃森哲曾經發布的一項調研顯示,從國內受訪者來看,安全顧慮(45%)、裝置未能理解使用者需求(42%)以及隱私問題(40%)是三大最主要的擔憂。此外,有34%的中國消費者表示,他們不知道哪些個人資料為智慧語音助手所用,透明度有待提高。

一般來說,要想使得智慧語音助手達到更好的體驗,就意味著需要獲取使用者更多的資訊,或讓渡自己更多的權利,如何把握這個邊界非常重要。

李笛在分享中就提到了常見的Long-term memory(長期記憶網路,一種演算法,可以記住長時間段的資訊)問題,將其放到產品中來,就會涉及到AI倫理問題——是不是允許對使用者進行畫像?是不是能夠記錄或者嘗試分析使用者各方面的特點?

他表示,AI倫理還處於非常早期的階段,但從某種程度上來講,智慧語音助手需要了解到的資訊不用那麼多,就可以做到和人之間是很好的朋友關係。但實際情況是使用者會恐慌,企業也會恐慌。他認為,人和智慧語音助手要想達到很默契的狀態,Long-term memory不需要特別多。

黃民烈從技術上就智慧語音助手的人性化體驗和法律倫理的邊界進行了分析。他認為,這涉及到兩個關鍵點,一是個性化,其本質是把助手的能力跟使用者的個人資訊、偏好、愛好做匹配;二是真正好的智慧助手應該具有持續學習的能力,在跟人互動的過程中能夠聽從人類指令,可以從人的反饋中不斷學習,自動地去積累知識,讓它的能力持續躍升。

“這就涉及到很多價值判斷,得知道什麼東西學,什麼東西不學,其實就是要給機器人一個正確的價值觀。”黃民烈表示,但這個價值觀是什麼非常複雜,跟文化、地域都有關係,還需要去探索。

Top