你會害怕ChatGPT嗎?害怕你或你的孩子很快就會被AI淘汰?我來降低一下你的焦慮。
在ChatGPT及其后繼者的時代,我們還能夠做什麼?為了探索這個問題的答案,我建議大家做一個思維實驗。
如果你有機會讓你的孩子「變得」像ChatGPT一樣,會怎麼樣?假如在一個特殊的房間里睡了一晚之后,你的孩子出來的時候看上去和以前一樣,但是孩子的腦子已經被「編程」過,ChatGPT知道的所有事實都已經塞到他們腦子里了。這是你想要的嗎?
我的答案是:不,我不要。理由如下:
學得再像ChatGPT,也沒有用
確實,ChatGPT非常厲害,厲害到許多過去值得學習的東西現在似乎變得沒那麼有價值了。然而,有些其他的技能和能力將會變得越來越重要,盡管你一時可能想不起它們。

圖 | pixabay
先從功利主義的角度來看看:未來的就業市場會重視哪些技能?
更容易說出未來就業市場不重視什麼——恰恰是ChatGPT所擁有的那種百科全書式的知識。
原因很簡單,在未來,每個人都會有自己的個人設備——手機或者其他在未來取代它的小工具——裝載著相同的知識庫。那種感覺就像是,想想曾經非常有價值的射箭技能後來怎樣了?在人類不再依靠射箭來打獵或打仗之后,就很少有人去練習并掌握這項技能了。當然,像奧運冠軍那樣擅長射箭的人還是有的,但總體來說,射箭已經從實用性技能轉變為娛樂性技巧。
像這樣曾經必不可少、現在已成為小眾愛好的技能,我們還能列出長長的清單:馬術、尺規作圖、通過觀星來導航、手寫信件、鉆木取火、紡紗織布……
它們都有一個共同點:高度專業化,其重要程度依賴于很具體的情境。在不久的將來,我們的孩子在學校里學到的許多知識也會變得類似——它們是很有趣的,但不太有實際用處。

圖 | pixabay
不像ChatGPT那樣學習,倒是會有用
那麼什麼是有用的呢?與人類合作,為人類工作。為此,以人為本的技能將是必不可少的。
在一個充斥著ChatGPT和人工智能的世界里,以人為本的通用技能將變得更加重要。
這似乎有違直覺。但這正是過去技術革命中發生的情況。兩百年前的人們很難想象、更難以相信一個能有這麼多律師、教師、藝術家和網紅的世界。這些職業的重點不在生產的技術方面,而在于與其他人的交流和互動。這一輪技術革命也將產生同樣的效果。

圖 | pixabay
事實上,技術越復雜,需要的人力管理就越多。下面是一些例子:
1. 用戶體驗。只要機器不像末日電影里那樣上演毀滅人類的革命(我認為不會),它們的輸出就會是為我們人類而創造。我們需要告訴未來版本的ChatGPT,我們想得到什麼,我們想要如何得到。
2. 使用限制。什麼時候可以使用機器?現在已經有很多困難的案例:學生可以用ChatGPT寫作業嗎?當藝術家用人工智能創作一件藝術作品時,誰是真正的作者?使用ChatGPT進行心理咨詢,是可以接受的嗎?
3. 權責分配。機器生成的作品產生收益時,誰有權收錢?機器生成的產品導致了一場事故,在經濟上和道德上又該由誰對此負責?以上一段里的例子而言,人工智能生成的藝術作品獲獎時,獎項應該頒給誰?如果ChatGPT的咨詢對病人造成了傷害,誰應該為此負責?
4. 使用目標。我們希望通過技術實現什麼目標?以設置公路的限速為例,限速越高,車速就越快,越能節省時間,同時事故也會變多。有人可能會認為人工智能將為我們設置最佳限速。但「什麼是最佳」并不是早已注定的客觀存在,「最佳」取決于我們的價值觀和偏好。即使擁有最好的人工智能,目標最終還是由我們人類來決定。
5. 協商談判。以上所有問題,都需要不斷地與其他人類進行協商。我們溝通和說服他人的能力,將變得越來越重要。
未來的許多工作、或許是大多數工作,都將致力于解決這些問題,還有一些目前難以想象的問題和任務。但它們都擁有共同的人文因素。

圖 | pixabay
重要的是路徑,而不是終點
在最近的一次晚宴上,一位來自普林斯頓的物理學家朋友尼馬·阿卡尼-哈米德(Nima Arkani-Hamed)教授說,每一位物理學家(或者想成為物理學家的人)都應該讀讀愛因斯坦的筆記。不是因為愛因斯坦的筆記會給你更多的事實,而是因為愛因斯坦的筆記充滿了錯誤的想法。
阿卡尼-哈米德認為,從愛因斯坦那里看到錯誤的東西,可以啟發一個人如何作為一個物理學家好好思考。
讓我重復一下:從錯誤的想法中,我們能學會更好地思考!
在科學界,愛因斯坦的筆記是個反常的異數。大多數科學家不會自豪地記錄他們錯誤的想法,即使他們記錄了,錯誤的想法也不太可能被發表。事實上,科學界里發出來的大多數東西都是優雅的、正確的、成功的。
ChatGPT(以及任何大型語言模型)的工作原理,是通過統計積累已發布的材料。它通常可以訪問光鮮亮麗的最終產物,而不是錯誤百出的潦草過程。但這也使它們失去了「全過程」的好處。當錯誤的想法和失敗的實驗不可見時,統計推斷就會受到負面影響。
想象一下,一個公司的管理者通讀過所有的 MBA 課程教科書,但從未真正管理過任何項目。你會相信他嗎?我不信。遇到困難、嘗試解決、遭遇失敗,這樣的經歷是一個成功的CEO的必備特質。

圖 | pixabay
當你需要面對與過去截然不同的反常事件和問題時,從差錯和失誤中形成的知識就變得特別有用。
如果你僅僅依靠統計數據,你的結論就不能預測不尋常的新事件。只有通過一個學習的過程,而不是立即到達「已知」,你才能形成預期意外的洞察力。
與此相關的一點是,并不總是「多多益善」。我們說某種菜肴是精致的,并不是因為它使用了更多的原料和香料。最好的化妝品也不會在臉上用盡所有顏色。你的書法并不會「大力出奇跡」。事實上,許多好東西之所以好,是因為它們恰到好處地保持了平衡:不太多,也不太少。要發明新的好玩意,你不需要什麼都知道。
同理,了解所有的事實并不保證你能創造出好的東西。我并不是說人工智能無法生產出創造性的作品——它當然可以。但是人類帶著自身所有的局限性——有時正因為其局限性——也能夠創造出許多令人驚嘆的作品。沒有理由放棄這種已被證明的能力;相反,我們應該培養它。何時停止?如何選擇?如何平衡?這種敏感性來自于學習的過程,而不是學習的結果。
ChatGPT能「辨別」,但不能「鑒賞」
你是否曾讀一本書讀到一半,實在讀不懂,最后認為自己一定是太愚蠢了才讀不懂這本書?我的學生告訴我,她過去常常這樣看待那些她看不完的書。這樣的情況持續到她自己需要寫論文為止。在這個過程中,她學會了如何成為一個好作者。直到那時,她才意識到,一本書很難讀懂,可能僅僅是因為作者寫得不好!通過學習如何寫作,她學會了鑒賞好的寫作。
我認為很多事情都是如此:如果你不經歷學習的過程,不經歷從 「無知」到「知道」的艱難轉變,你將很難鑒賞「什麼是好的」。像ChatGPT這樣無所不知的系統充其量只能做出區分——分辨什麼是好的,什麼是不好的。它可以通過模仿現有的判斷來做到這一點。但是誰首先給ChatGPT輸入判斷呢?這依然將是(或應該是)由人類完成的。
但是,「能夠區分」遠不及「能夠鑒賞」:后者擁有對質量的直覺和感受。舉個例子: 我喜歡喝茶又住在中國,我試圖了解關于中國茶的一切。我收集中國茶,買了很多不同種類的茶,還買了關于不同種類中國茶的書籍。正因如此,我可以根據一些標準來區分不同的茶,茶的名字、形狀、顏色,最簡單的就是根據價格來區分——貴的茶可能最好。
但我做不到「正確地鑒賞中國茶」,給我一杯茶,我喝下后,并不能正確判斷它的價值。有一些我認為好滋味的茶葉其實很便宜;有些茶葉我不喜歡,後來有人告訴我每斤要5000元以上!我能夠根據自己知道的事實進行分辨,但我仍然不能「鑒賞」。

圖 | pixabay
為什麼我們要能夠鑒賞「上品」?為了快樂。和我不同,這篇文章的讀者里,有人能夠品嘗一杯好茶并從中獲得快樂,因為你能夠鑒賞它的妙處。我能從閱讀一篇好文章中獲得樂趣,無論那是小說還是學術論文。一些讀者可能從觀賞京劇中獲得樂趣,另一些則從下一盤好棋中獲得樂趣。
這突出了享受的重要性:就圍棋而言,人工智能可以輕易擊敗最好的人類玩家,但我們仍然會下圍棋并享受它。事實上,我可以向你保證,如果你的大腦突然對圍棋無所不知,你將失去下圍棋的所有樂趣。
需要說明的是,ChatGPT不需要懂得鑒賞,它現在的樣子已經足夠運作良好。但是對于我們人類來說,如果沒有鑒賞能力,我們的生活將變得枯燥無趣——所有的茶嘗起來都差不多,所有的文字僅僅是信息的載體。
無論如何,我的孩子將不會模仿ChatGPT
如上所述,即使未來的實驗室提供給我們的孩子一個類似于ChatGPT的知識庫,我也會拒絕。
我拒絕一夜之間成為ChatGPT的理由,在當下是實際的,從長期來看也是合理的。無論未來的ChatGPT20多麼令人驚嘆,這些理由依然不會改變。只要你知道如何管理人類,你就會一直有工作。你能獲得很好的洞察力,即使你有局限,有時可能正是因為你有局限。
而且你永遠不會想要放棄鑒賞的快樂。我們有充分的理由讓我們的孩子學習,并經歷完整的學習過程。

圖 | pixabay