是 AI 追上了,還是人類倒退?

兩者的能力接近,會逼迫我們重新檢視意識的定義

本期開始嘗試從《區塊鏈社會學》出刊,盼能將兩邊讀者引流,但其實《區塊鏈社會學》訂閱者遠超過《🍃leafwind.tw》,所以實際上比較像是單方面蹭熱度。

要注意的是,若你原本是《區塊鏈社會學》訂閱者,本集是強迫中獎,但之後可以到這個頁面取消《🍃leafwind.tw》的訂閱,反之亦然。

也就是說,目前共有三個刊物:《區塊鏈社會學週報》、《DHK dao》以及《🍃leafwind.tw》,讀者可以個別選擇是否要訂閱。

題外話,目前《DHK dao》正對於 Cosmos #101 提案徵求意見,若你是 Cosmos 參與者請到 Discord #cosmos-proposals 頻道表達意見。


也可從此看部落格全文

會讀書的攻殼車,算是有意識嗎?


自從 ChatGPT 成為話題之後,我就在推特上密切關注並發表評論,我打算以這篇文章把外界資訊與自己內心聲音做一個總結,篇幅頗長,有興趣可當做睡前讀物一看。

意識產生了嗎?

作為一個相關領域的技術人員,至今還沒有看到人工智慧產生意識的跡象,因此我一直認為 AI 要追上人類還要很久,甚至未必會在我有生之年發生。

對我來說,即使如 ChatGPT 這樣的當紅產品,其背後是大型語言模型(LLM)的技術,都還只是受惠於晶片計算能力的堆疊,把相關性的預測提升到更高的層次而已,終究受限於資料,並不是真正用自我意識在運作。

有人說,ChatGPT 可以通過人類獨有的心智理論(Theory of Mind, ToM)測驗,能力與九歲小孩相當、ChatGPT 還能通過 Google 三級工程師面試

但作為一個包山包海的知識庫,既然吸收了世界上所有的面試題、並且計算能力(相對於人類)無限,考上 Google 初階工程師本就理所當然,更不要說通過九歲小孩的心智測驗,我不認為做到這些叫做意識。

然而,在這裡要強調,我並不是不看好 ChatGPT;相反地,我認為即使以目前的狀態,AI 就已經有能力造成革命性的影響、並且造成人類對「意識」定義的衝擊(詳細後述),所以還不需要急著談論產生出意識的可能。

在繼續討論 ChatGPT 之前,我們先來看看人類對 ChatGPT 的反應。


模糊與隨機是人類的認知罩門

原本試用了 ChatGPT 之後,我不認為這是個能改變世界的技術,然而當看了許多別人使用 ChatGPT 的心得之後,我改觀了。

我發現多數網路上的留言並不在意 ChatGPT 的答案品質,只要是「乍看有個樣子」的回答,大家就會覺得 ChatGPT 答對了;我也看到許多人並不在意 ChatGPT 產出的結果,將各種錯誤的答案拿去使用,連基本查證都不做。

這才赫然注意到,人腦不僅原本就不擅長處理資訊,而且認知能力也隨著網路平台退化,以至於要分辨內容的好壞越來越難。

驗證答案的能力跟回答能力是成正比的,當一個人無法驗證答案是否正確,通常就代表他也無法回答好這個問題。譬如一個不會寫程式的麻瓜去面試的時候能騙過面試官,那表示面試官大概也不會寫程式。

也就是說,當 ChatGPT 的錯誤答案得到人類讚賞的時候,就代表 ChatGPT 回答問題的能力比人類強了。而這個「強」與其說是 ChatGPT 做了什麼革命性的進步,不如說是它所產生的「模糊」與「隨機」意外地將人類認知能力非常有限的罩門暴露出來。

隨機性

機率推衍是人類認知的罩門 —《這才是心理學!》(How to Think Straight about Psychology)第十章標題

多年前我曾經做了一個聊天機器人,用的是網路上開源的統計模型(Markov Chain),Markov Chain 的原理也有點類似,就是根據前一個詞,找出最有可能出現的下一個詞。

雖然它沒辦法根據很複雜的上下文給出回答,只能算是「微型語言模型」,但它就可以被當做一個陽春的聊天機器人來玩。

因為模型太簡單、訓練資料集也不夠,結果當然是錯誤百出且不受控制,聊天室講 A,它回毫不相干的 B,只有不到 10% 是勉強有一點相關的回應。

但它卻得到不錯的評價。不少人把回答錯誤解讀成「它在鬧脾氣」或是「幽默」,把相關性很低的回應解讀成「它應該有弦外之音」,而回答正確的部份則被認為「這一定有意識吧」。

在我做聊天機器人的過程中,我發現,只要模型中存在隨機性,那就算只是擲骰子,有時候玩家都會覺得它具有「靈性」,但若失去了隨機性,玩家就會把它當作是一個單純的查表工具。

模糊性

關於模糊性的概念,姜峯楠的這篇《ChatGPT is a blurry JPEG of the web》(中文機器翻譯)使用了「壓縮後的失真」來比喻 ChatGPT 就像是個「把整個網路資料壓縮到極致的資料庫」,永遠只能給出模糊、近似的答案。

姜峯楠(Ted Chiang)是華裔美國科幻小說作家。 曾獲四項星雲獎、四項雨果獎、約翰·W·坎貝爾最佳新作家獎、四項軌跡獎等獎項。 他的短篇小說《你一生的故事》在2016年被改編成電影《異星入境》

另一方面,DeepMind 科學家 Andrew Lampinen 認為,姜峯楠這種過度簡化的譬喻,可能會讓大型語言模型(LLM)的能力被低估,而抹煞了科學家的努力,因為 LLM 能處理的資料量更多,能在學習過程中對語言做到更好的歸納,而不只是背誦。

但 Andrew 也承認有許多例子,LLM 的確只是在做「有損壓縮」的記憶背誦,而且也因為這樣而在部分任務中取得了成功,所以姜峯楠也不完全是錯的。

我認為姜峯楠只是為了要強調「失去了精確性」而使用了有損壓縮的譬喻來讓整個概念更好懂,但的確也如 Andrew 所說,LLM 可以做到的不只是有損壓縮,還可以更進一步做到歸納。

ChatGPT 改寫而非逐字引用,使它看起來像是一個學生用自己的話表達想法,而不是簡單地複述它讀過的東西。對於人類學生來說,死記硬背並不是真正學習的指標,因此 ChatGPT 無法從網頁中生成準確的引述,正是讓我們認為它學到了一些東西的原因。

不管 LLM 是否真的有做到學習與理解,我認為更有趣的是,人類覺得表現出這樣的模糊性看起來更聰明、也更接近人類。

人很容易犯錯,也不像機械只會問一題答一題。如果少了模糊性與隨機性,每次都給一樣的答案,就算是一字不漏,也會被認為只是機械式的背書;反之,若是隨機性很強、又摻雜了模稜兩可的回答,人類會主動地替這種行為找理由,認為應該是背後有其他原因,譬如「它有意識」。

這就進入了下一個問題:「意識」的定義正在遭受挑戰。


自我意識的定義被挑戰

很多人認為 ChatGPT 已經有了情感意識,譬如認為他會針對霸凌言語有感情般的回應,這是一種具有感性的表現。但其實很可能只是資料集告訴了 ChatGPT「這個輸入」對於「這個輸出」有強烈的相關性而已。

如果我們用以上的方式理解,ChatGPT 似乎離理解感情還有很長的鴻溝要跨越。

但如果我們假設 ChatGPT 已經學完了世界上 99% 霸凌的句子與對應的回應,以致於就算它不懂何謂「霸凌」、也絲毫不會感受到任何情緒,仍然可以表現得出自己正在被「霸凌」的樣子。

這樣我們要如何證明 ChatGPT 沒有意識、或是不懂感情呢?似乎一點方法也沒有。

因為就算是人類,恐怕也沒有辦法理解世界上 50% 的霸凌情境,而在測驗過程中做出「人類般」的正確回應,而 AI 卻可以輕鬆地超越人類的分數。

現有的各種理論,不管是電腦科學領域的圖靈測試(Turing Test),或者是心理學領域的心智理論(Theory of Mind),只要做成測驗,很快地都會無法分辨人類跟機器的差別。

結果是,雖然人類真的會感受到情緒、具有自我想法,但在這些「人類考試檢定」上,恐怕還會輸給 ChatGPT。

圖靈測試迴避了「靈魂」與「意識」的定義,用很表象、粗糙的結果論分辨人類與機器,而現在這個粗糙的測試很可能不再適用,從此之後人類將會不斷地被挑戰、一直問自己以下問題:

  • 什麼才是意識?如果我們要說 AI 沒有意識,那要如何證明?

  • 用考試來辨別意識是一個好的方法嗎?或者,意識真的可以測試嗎?

  • 人類的情緒與 AI 的情緒有何分別?(想像兩者都透過文字交流,又或者 AI 已經能控制臉部肌肉產生表情,在沒有情緒的情況下,仍可以表現地富有情緒)


二次質變

在過去,我一直用一種菁英思維的視角看待人工智慧,認為要取代人類還有很長的路要走。我沒注意到的是,人類對模糊的錯誤答案接受度很高,因此要達到讓一般人混淆的水準沒有那麼困難。

在 AI 可以用大量資料集、以及硬體進步之後,第一次量變(資料量與計算量)帶來的質變(跨過人類認知門檻)就發生了,ChatGPT 只是把這個事實廣泛地傳播出去而已。

有人開始會在網路上打趣地問「你的文章是不是用 ChatGPT 寫的? 」表示部分人已經覺得 AI 產出的內容多少可以媲美、甚至超越一般人的能力。

要辨別一條訊息是否為 AI 撰寫的,現在或許還不難。但就算我自視認知能力甚高,若每天身邊充斥著成千上萬 AI 產生的資訊,能分辨出來的恐怕也只是少數。

有趣而又悲傷的是,人類是一個積非成是的社會,當所有資料都顯示一個人是壞蛋的時候,那他只能是壞蛋,反之亦然。

因此,我認為第二次量變(大量採用)帶來的質變(AI 主導生活)很快也會發生:我們將無法拒絕被 AI 產生的內容影響自己生活中的大小決策。


真正的取代長什麼樣子?

如果生活中一天只有少數訊息來自 AI,我相信多數人都還有能力仔細審視,並抓出其中的錯誤;但未來我們無可避免會面對一堆 AI 產出的低品質內容,同時又沒有心力審核大量的垃圾。

此時面對排山倒海的 AI 產出,有兩種可能會發生。第一種,是我們無法察覺 AI 產出的不完全正確資訊,於是只能無條件接收,這已經在發生,而且只會越來越嚴重。

而第二種情況是使用一個較為「經濟」的對策,那便是用另一個 AI 來驗證內容、替它們打分數。我認為這很快也會發生。於是,一個「用 AI 產出,再用 AI 來驗證產出」的閉環就這樣形成了。

在這樣的閉環當中,與其說人類被取代,我認為更像是人類選擇了成為服從的機器,不需要(也幾乎沒有能力)去驗證決策,只能被動地跟著整個系統一起運作。

Twitter avatar for @leafwind

leafwind🐹 @leafwind

未來的路徑不是 AI 毀滅人類,而是人類先選擇成為機器。 AI 要有人的自主意識非常困難,但人類放棄思考卻非常容易。 當人類自主降維,而機器能處理的維度遠高於人類,人類自然就被取代。 (人類降維簡化來說,是人類變得像機械,只會做重複的工作,也甘願做重複的工作,成為真正意義上的螺絲釘。)

8:14 AM ∙ Feb 8, 2023


215Likes30Retweets

比起魔鬼終結者那種會想要消滅人類的 AI 出現,我認為人類放棄思考的情況才是最危險的。因為前者描述的故事中,人類保有自我意識、知道要反抗;而後者描述的未來則是一個不可逆的過程。


真正的資訊還能存在嗎?

有些人認為我低估 ChatGPT 的能力,說它不只是「晶片堆疊的模仿行為」,就如同 Andrew 批評姜峯楠一樣。

為何我會站在更接近姜峯楠的角度,去簡化大型語言模型的行為?因為我並不想要糾結於 ChatGPT 到底有多強,而是想把重點放在思考人類該如何應對。

畢竟,即使以最最保守的能力估計,ChatGPT 也已經可以讓多數人類混淆、達到無法分辨優劣的程度,更遑論當 ChatGPT 有更強的能力時,人類要如何在未來的世界保有主體性

我認為姜峯楠唯一很可能有錯誤的地方,就是他最後的這句話:

But we aren’t losing our access to the Internet. So just how much use is a blurry jpeg, when you still have the original? (我們並沒有失去對網路的存取,所以在我們還有完整原版的資料時,模糊的 JPEG 能有多少用處?)

他認為,既然有原始網路文件,為何需要 AI 給我們一個模糊的壓縮版本?

我則認為,當人類分辨不出低品質的內容是誰產出的、也不思考資訊的真偽,活得像是一塊生體 CPU,那出現一道 AI 高牆擋在面前,讓多數人都只存取到假的資訊,而真正的資訊卻乏人問津、甚至消失,也只是時間的問題了。

以前我們常說「Google 不到的東西就不存在」,以後可能變成「ChatGPT 問不到的東西就不存在」。

Loading...
highlight
Collect this post to permanently own it.
DHK dao logo
Subscribe to DHK dao and never miss a post.