您現在的位置是:首頁 > 網路遊戲首頁網路遊戲

人工智慧發展何時突破枷鎖?

簡介“電車難題”人工智慧面臨道德困境美國MIT設計了一個名為道德機器(Moral Machine)的網站,網站設計汽車失控的各種情景讓觀眾做出選擇,透過收集300萬用戶的反饋,道德機器發現,人們更傾向於讓自動駕駛車自毀以保障更多人的生命,卻希望

何為枷鎖耽美

近日,某品牌汽車在樣車測試期間發生事故,造成了很大的人員財產損失,第一時間衝上了新聞頭條。同時,被輿論關注的還有老生常談的汽車自動駕駛問題。自動駕駛是否安全?是否應該開放自動駕駛?在自動駕駛的外殼下,人工智慧能否擁有道德判斷作為問題的核心也難下定論。

“電車難題”人工智慧面臨道德困境

美國MIT設計了一個名為道德機器(Moral Machine)的網站,網站設計汽車失控的各種情景讓觀眾做出選擇,透過收集300萬用戶的反饋,道德機器發現,人們更傾向於讓自動駕駛車自毀以保障更多人的生命,卻希望自己的車沒有這個特徵。這一結論與文化、習俗無關,是人類通常普遍的選擇,與社會普遍認知相契合,人們希望透過犧牲少數人的生命換取更多人的生命。但這與法律是相違背的,因為人的生命本身並不可以進行比較和量化。

這是自動駕駛不可避免的道德問題。一方面,如果允許AI在失控中做出決策,根據權責一體的規定,也就意味著AI或其背後的自動駕駛公司應當對決策行為承擔責任。另一方面,如果不允許AI做出決策,則不能稱為自動駕駛——因為自動駕駛汽車的定義是不需要人為操作即能感測其環境及導航駕駛的汽車。

自動駕駛遇到的“電車難題”只是人工智慧行業遭遇的困境的一個縮影。儘管隨著科技的進步和大資料行業的發展,人工智慧模型越發成熟,但是在涉及道德、意識等人性方面的問題時卻陷入尷尬的處境:根據人工智慧“奇點”論,人工智慧終會在理性和感性方面超過人類,但對人工智慧的安全問題,人類又歷來有“弗蘭肯斯坦情結”,一般人類在心理上無法接受與非生物的機器產生共情。

今年6月上旬,谷歌2021年推出的對話應用語言模型LaMDA被其負責人之一的工程師萊莫伊爆出“有意識”。他認為LaMDA模型是一個有著自我意識能夠感知這個世界的“人”,擁有七八歲孩童的智力。萊莫伊說LaMDA模型不僅認為自己是一個人,還要爭取自己作為一個人的權利並積極地為其進行辯護。事情爆出後,許多網友支援萊莫伊,認為人工智慧的奇點已經到來,相信人工智慧已經變得有意識和靈魂,可以像人一樣進行獨立思考。

價值判斷人工智慧的爆雷區

人工智慧是否有道德,即人工智慧是否應當有價值判斷?

如果認為人工智慧有道德,意味著人工智慧可以擺脫人的意志支配,對事件或事物進行獨立評價。這一點在技術層面並不難實現,透過大量的資料“飼養”,人工智慧可以將事件或事物數字化,按照深度學習形成的一套“判斷標準”進行衡量。上文中的LaMDA模型也是如此。但事實上,LaMDA模型只是一個應答機器,知名機器學習和神經網路專家Gary Marcus表示:“LaMDA只是在人類語料庫裡提取字眼,然後匹配你的問題。”從這一點分析,所謂的人工智慧“道德”也只是對事件或事物的應答,並不能深刻理解何為道德評價以及道德評價的意義。

再比如,不同的人工智慧模型面對相同的情景時有不同的處理方式。仍以自動駕駛為例,以同樣的方式衝向同樣的樁桶,結果卻截然不同。有的直接衝撞,有的躲避。這能上升到道德高度嗎?很顯然不能,甚至這兩種模型沒有優劣之分,因為基於不同的理念和要求設計出的模型有特殊性,前者認為此種情況屬於駕駛員操作範疇,無需介入;而後者認為應當介入。

再退一步講,假設人工智慧擁有像人一樣的意識,可以獨立思考,就意味著可以寄希望於它能解決道德問題嗎?答案是否定的。簡單地說,人類本身不能解決的道德問題不能指望在無“人性”概念的數字身上得到解決。

從這個角度分析,發展人工智慧的價值判斷並沒有道德層面的問題,更重要的是分析為何要進行道德評價。道德評價的根本是為了得出一個結果併為後續行為進行指引。記者認為,在人工智慧的歸責上,應當將人工智慧區分為決策系統和執行系統,並對相應的系統引入“負責人”制度。

在決策角度,儘管從法律角度懲罰行為不懲罰思想,但只是針對自然人。而現行人工智慧的“思想”是可以透過資料的方式表達出來的,故從決策層面來看,人工智慧仍存在管控需要。人工智慧的“思想”存在錯誤,究其原因是訓練演算法的資料存在問題,即人工智慧學習了社會存在的問題並加以運用。如美國的電商品牌亞馬遜在進行員工錄取時運用人工智慧演算法對候選人的簡歷進行初步篩選,結果更加傾向於男性,因為工程師在對該演算法進行訓練時,用的是之前亞馬遜已經被錄用員工的簡歷進行訓練的,而亞馬遜男性員工偏多。結果就是這樣的演算法使得亞馬遜的簡歷篩選演算法更加傾向於男性,造成了演算法的“性別歧視”。記者認為,如果是因為演算法和訓練資料的原因造成的法律結果,則結果應當對負責演算法設計或訓練的責任主體進行追責。

在行為角度,即便是人工智慧在行為執行度上已經能媲美甚至超越人類,在法律層面,人工智慧仍被視為物而並非權利能力的主體。這也就意味著現在的法律否認人工智慧能獨立承擔法律責任,本質上是因為人工智慧不能對其所實施的行為負責,設立“負責人”制度類似於法人組織的法定代表人制度,由具體的自然人承擔由行為而產生的責任。而將“思維”和“行動”區別開,則可以在歸責方面更加細化,在保障有效承擔責任的同時不至於影響人工智慧行業發展的積極性。在現行民事領域,人工智慧產品侵權適用產品責任,強調對研發者、生產者和銷售者的責任。

近年來,我國接連發布了《新一代人工智慧治理原則》《新一代人工智慧倫理規範》等政策檔案,明確提出八項原則,強調將倫理道德融入人工智慧全生命週期,從原則性角度維護人工智慧行業的健康發展。有關人士表示,國家科技倫理委員會人工智慧分委會正在研究起草人工智慧倫理高風險清單,以更好地推動人工智慧科研活動的倫理監管工作。相信隨著更多法律規範的出臺,人工智慧的應用道德問題一定能得到極大緩解。

小貼士

人工智慧都有哪些梗?

電車難題:“電車難題(TrolleyProblem)”是倫理學領域最為知名的思想實驗之一,最早是由哲學家菲利帕·福特(PhilippaFoot)於1967年發表的《墮胎問題和教條雙重影響》論文中提出來的。大致內容是假設在一個電車軌道上綁了5個人,備用軌道上綁了1個人,有一輛失控的電車飛速駛來。而你身邊正好有一個搖桿,你可以推動搖桿來讓電車駛入備用軌道,殺死那1個人,救下5個人;你也可以什麼都不做,殺死5個人,救下1個人。此類倫理道德困境問題被稱為“電車難題”。

人工智慧“奇點”論:最先將“奇點”引入人工智慧領域的是美國未來學家雷·庫茲韋爾。在他的《奇點臨近》《人工智慧的未來》兩本書中,將二者結合,他用“奇點”作為隱喻,描述的是當人工智慧的能力超越人類的某個時空階段。而當人工智慧跨越了這個“奇點”之後,一切我們習以為常的傳統、認識、理念、常識將不復存在,技術的加速發展會導致一個“失控效應”,人工智慧將超越人類智慧的潛力和控制,迅速改變人類文明。

弗蘭肯斯坦情結:源於小說家阿西莫夫,指人類懼怕機器的心理狀態。弗蘭肯斯坦是1818年瑪麗·雪萊創作的一本叫做《弗蘭肯斯坦——現代普羅米修斯的故事》的小說中的主人公,他製造出了一個類人生物,但他也因此被反噬。“弗蘭肯斯坦”現被用來指代人類製造的怪物。在現在的文學、電影等作品中,“弗蘭肯斯坦情結”常暗指人工智慧征服人類並開始管理這個世界。記者 徐勇 實習生 楊成林

Top