您現在的位置是:首頁 > 網路遊戲首頁網路遊戲

與AI聊天,也要有技巧

簡介在Google部落格《LaMDA:我們突破性的對話技術》一文中,明確的指出透過內化偏見,可能會引起仇恨言論或複製具有誤導性的資訊,即使經過審查所訓練的語言,也仍然存在被加以濫用的可能

ai智慧機器人怎麼對話

與AI聊天,也要有技巧

聊天是一門藝術,更是一項技能。有時,透過高效率且有技巧式的聊天,往往會帶來一些意想不到收穫,人們親切地稱為“白嫖”。沒錯,只要功夫深,“白嫖”質量就更佳。世上也沒有任何事情會逾越過溝通,而直達結果。這也是人工智慧解決方案的科學家們,為什麼會熱衷於以對話的形式,來解決使用者當前的問題。

Google在今年的I/O大會上,釋出了一款了新模型LaMDA。其功能與現今任務型AI的邏輯大體一致,但是卻又是AI發展的一個重要節點。Google和Alphabet執行長Sundar Pichai對LaMDA看法是:“它旨在與任何主題進行對話。”

進入21世紀,人工智慧跨過了答非所問的階段,更離譜的是不同消費級裝置,所配備的AI不僅會像打了雞血一樣等著發問,更會不等發問突然出現,給使用者一個驚喜。簡單來說現今大部分AI還缺少“靈魂”的注入,只是興奮地在為使用者搜尋想要知道的答案罷了。

LaMDA則不一樣,如果投入市場的話,我們或許可以將其想象為在與AI討論一個問題的時,能夠根據下一個提問而跳過當前問題,並精準給到下一個問題的答案,並且不會出現“今天幾號?”,”怎麼摸魚?”等這樣基本邏輯不搭的問題。雖然Google的模型與市場的產品並沒太大區別,但Google好歹是為AI注入了一絲靈魂,推著行業邁了一小步。

這是因為該訓練模型有神經網路體系結構(類似於BERT和GPT-3等語言模型),以及在培訓期間,學習瞭如何將開放式對話與其它形式的語言區分開的細微差別。Pichai說,LaMDA從其訓練資料中綜合了這些概念,所以可以做出明智的迴應,使對話保持開放性。“沒有對話兩次都走同一條路,並且該模型可以進行對話而無需重新訓練。 ”Pichai如是說道。

雖然LaMDA的出現,使人們與機器人交談不會再變的棘手,不會進入死衚衕,是AI技術進步的表現。但是Google本身也及其在意AI的原則,即AI可能會與所有工具一樣,也可能被濫用。在Google部落格《LaMDA:我們突破性的對話技術》一文中,明確的指出透過內化偏見,可能會引起仇恨言論或複製具有誤導性的資訊,即使經過審查所訓練的語言,也仍然存在被加以濫用的可能。

LaMDA是所謂的大型語言模型(LLM),這是一種在大量文字資料上經過訓練的深度學習演算法。但正因如此,所以專家認為可能會導致種族主義、性別觀點和侮辱性觀念的模型加以嵌入。並因傳播和自動學習的、引入等原因,就很容易使人們誤以為是人為進行了觀點的輸出。

好在,Google做出了很多的努力,以確保LaMDA在公平性、準確性和隱私性方面的高標準。“在建立諸如LaMDA之類的技術時,我們的首要任務是確保我們將此類風險降到最低。我們多年來一直在研究和開發這些技術,因此對機器學習模型所涉及的問題(例如不公平的偏見)非常熟悉。”

與此同時,全球有500多個研究人員競相的瞭解這些模型的功能和侷限性。而在Huggingface(一家採用“開放科學”方法來理解自然語言處理(NLP)的初創公司)領導的BigScience專案下,他們尋求建立一個開源LLM,該LLM將成為科學界的共享資源。目標是在單個重點年度內獲得儘可能多的獎學金。他們的中心問題是:應如何開發LLM以及何時部署LLM才能獲得其收益而又不會造成有害後果?

Huggingface首席科學官托馬斯·沃爾夫(Thomas Wolf)說:“我們無法真正停止對每個人都想進行培訓的大型語言模型的這種瘋狂”。“但是我們能做的是嘗試朝著最終更有利的方向輕推這一點。”

寫在最後:

如果Google會將LaMDA整合到現有的產品中,那麼這些產品可能會對使用者變得更加有用。例如,LaMDA可以透過交談的形式,解決兒童和老年人等群體的互動方式;在汽車的內建中,可以更加便捷地更改目的地,或者查詢路況;除此之外,也將理解不同詞彙的意義及應用等等。這是To C使用者搜尋行為方式的一次轉變,當然也可能是To B企業調整內容和產品的一個方向。但這並不是最終的形態,Google也為其留下了更多暢想空間的未來。“敏感性和特異性並不是我們在LaMDA等模型中所追求的唯一品質,我們還在評估諸如’興趣度’之類的維度,方法是評估迴應是否具有洞察力,意想不到或機智。”

Top