資訊動態
LATEST NEWS
人工智能要“覺醒”了嗎
隨著基于大語言模型 GPT-3.5 的 ChatGPT 公開(現在又升級到了 GPT-4),人們發現,人工智能在幾乎所有對話中都顯得 " 游刃有余 " 了。雖然 ChatGPT 會非常精確的回答,自己只是人工智能,但是它的回答在一些方面已經接近真人,代碼能力、翻譯能力甚至超過沒有受過訓練的人,反而是這些 " 非人 " 的能力,提醒我們它不是人。人們不禁要問,這類大語言模型的人工智能,是否已經有了一定程度的意識?如果現在還沒有,那未來會不會有呢?
什么是 " 意識 "?
首先,我們要明確,即便是科學領域,大家對意識是什么,以及如何才能產生意識,也有著完全不同的觀點。我們先選取一個大部分科學家認可,也符合日常經驗的說法:這里說的意識,是神經系統對自我感受和外部感知的總和。
翻譯成日常語言,拿我們人類自己舉例子,我們能看到光,聽到聲音,五感信息會進入意識。同時,我們能感覺到自己身體內的疼痛、疲憊、緊張、饑餓等,能處理思想、記憶、情緒等,這些信息都會進入到意識,成為意識的一部分。
而且,人能感覺自己的存在,知道有一個連續的自我,并能審視自我,這也是人類意識的一部分。人只要處于覺醒的狀態,就具備意識。睡著了或者昏迷了,就會失去意識。死亡時,神經活動停止,意識就會徹底消散。
人工智能能擁有 " 意識 " 嗎?
在聊這個問題之前,先讓我們來看看大語言模型的人工智能能做到什么。首先,如今的人工智能可以像人一樣說話,感覺 " 像 " 個人。但是,這種感覺不是硬證據。人類總是基于自身的經驗,判斷其他客體是不是有意識,往往對方表現得越像人,人類就越會認為它有意識。這種判斷是非常不準確的,人類經常會認為寵物貓和狗有復雜的意識,實際上就是把自己的經驗投射到了動物身上。
科學家發現,人類甚至對有眼睛的東西就會投射它有意識的感覺。因此," 感覺像人 " 和 " 有意識 " 不能畫等號。就像谷歌科學家遇到的那樣,有些模型會自己說自己是人。這是有意識的表現了吧?但還真不能這么說,大語言模型是基于人類語言訓練的,這些訓練材料本身就包含海量的自我表達,人工智能可能學會了類似的表達方法,可以生成這樣的句子。舉個不夠恰當的例子,鸚鵡學說話時也可以說我如何如何,但是它卻并不能理解 " 我 " 的含義。
其實,許多學者堅決反對人工智能可以擁有意識,他們的理由多種多樣,比如有些學者認為,只有生物才能發展出意識。還有些學者認為,意識需要感知外部世界,只有具有物理意義上的身體,才能發展出意識。更有學者認為,必須發展出一套關于世界的認知,甚至發展出一定的內省能力,才能具備意識。例如,國內的人工智能專家袁行遠用幾個問題測試 ChatGPT,他問人工智能,自己門牙不好,是應該吃蘋果還是吃香蕉。人工智能回答,吃蘋果。他糾正道,蘋果是硬的,香蕉是軟的,牙不好應該吃香蕉,人工智能表示原來如此,它學習了。
袁行遠繼續進行涉及空間推理等問題的測試,ChatGPT 都給出了錯誤的答案。對于系列結果,袁行遠給出了一個巧妙的比方,他說:ChatGPT 就像是一個小孩,已經讀了全世界所有的書,卻從來沒有走出過他的房間。
許多科學家認為,生物有一具身體,能夠 " 走出房間 " 感知世界,才能發展出意識。如果這個看法是正確的,那么人工智能恐怕很難發展出動物具備的那種意識了。不過,這也只是這些學者的一家之言。
許多科學家認為,沒有身體,光是 " 看了全世界所有的書 ",照樣可以發展出意識。目前,基于大語言模型的人工智能不僅具備了強大的對話能力,而且,涌現出了相當好的邏輯推理能力,甚至擁有了猜測他人心理狀態的能力。《科普中國》曾經刊載過文章解讀這項研究,如《ChatGPT 相當于 9 歲人類小孩,它還真把自己當個人了?》。這種涌現出來的能力可能讓它超越人類的預期,獲得一定的意識。
而且,按目前的發展進度,這一類人工智能還表現出了一定的通用智力。過去的人工智能往往為特定任務訓練,有的會開車,有的會下圍棋,但是不會其他技能。大語言模型訓練的人工智能不僅能處理文本,還會推理、翻譯、編程甚至繪圖。
一些科學家估計,這種通用的智能可能也是意識的基礎,隨著人工智能不斷發展,出現一定程度的意識,或者不同于人類理解的意識,也是有可能的。由此可見,通常所說的 " 意識 " 是神經系統自我感受和外部感知的總和。人類和許多動物有不同水平的意識。目前來看,基于大語言模型的人工智能還不具備意識。但是隨著人工智能演進,出現某種程度的意識,也是有可能的。