Notice: 呼叫 _load_textdomain_just_in_time 函式的方式不正確。Text Domain 為 soledad 的語言套件載入過早觸發,這通常是由於外掛或佈景主題某些程式碼中的指示器過早執行所造成,而語言套件應該在 init 動作之後才載入。 請參閱〈WordPress 的偵錯功能〉以進一步了解相關資訊。 (這項訊息新增於 6.7.0 版) in /var/www/html/wp-includes/functions.php on line 6114
AI崛起 我們應該恐懼? – 新紀元周刊

AI崛起 我們應該恐懼?

by ggbbwhy

AI崛起 我們應該恐懼?


ChatGPT上線,引發對人工智能的高度關注。(Lionel Bonaventure / AFP)

文•石山

石山
……………………………………………………
資深媒體人、時事評論員。90年代初移居香港,加盟香港愛國傳統報人李子誦、程翔創辦的《當代》雜誌,曾在香港《信報》、中國《財經》雜誌撰寫《中國股市》財經專欄多年(署名:廖仕明),加入美國《自由亞洲電台》擔任節目主持人、資深記者,曾在英國、美國、西藏居住多年。石山知識廣博,深入了解中國社會的方方面面,並對中國歷史、文化和政局有獨到深刻的認識。

你有聽過AI是如何改變未來的嗎?別擔心,你並不是唯一一個擔心被機器人統治的人。但是,讓我們來看看AI對我們的未來社會到底會帶來什麼樣的影響吧!或者說,讓我們來看看到底哪些工作會被機器人搶走,讓人類繼續無所事事吧!(當然,這是玩笑話,但是AI對未來的影響是非常嚴肅的問題,我們必須認真對待。)

剛剛這段文字,不是我寫的,是ChatGPT寫的。這個ChatGPT,是美國硅谷OpenAI公司推出的人工智能對話平台,向社會公開。我註冊了一個帳號,說我要寫一個關於AI的文章,開頭要讓人感興趣,讓它幫我寫個開頭。所以第一段,就是它幫我寫的。大家覺得如何?

十多年前,看了傑夫.霍金斯(Jeff Hawkins)的《創智慧》(On Intelligence)。那本書對我理解人工智能,有很大幫助。傑夫本人是神經學家,也是一個電子科技人,創辦了掌上機Palm,有幾年這個機器非常火,後來被蘋果的iPod和iPhone給超越了。

傑夫在書中首先定義什麼是智慧。他認為,智慧就是人類大腦中儲存的數據,加上對這些數據的連結方式。換到電腦中,就是數據,和搜索引擎的聯合合作。當然這是一個非常初步的說法。比如說人類聽到獅子吼,這個聲音的數據以前就在大腦中了,但這個不是智慧,只有和「危險」這個概念的數據連結的時候,才是智慧。傑夫是從人類大腦運行模式下手,延伸到機器的運作模式。所以,關鍵的問題是,機器如何把「獅子」和「危險」這兩個概念的相關數據連結在一起。

十多年前,這還是一個相當不容易的工程,但實際上已經有不少突破了。經過了十多年的發展,現在電腦已經可以在很大程度上做出這樣的連結。這就是ChatGPT這個人工智能對話所體現出來的一些「智慧」。

基本上,GPT就是通過某種運作軟件,對電腦的記憶系統進行訓練,最後創造出新內容。

作曲、作畫、寫信還有動漫 AI已可著書出售

現在AI已經發展到相當驚人的程度了,不光是文字寫作,還有作曲、作畫、寫信,甚至動漫等等,都可以通過AI幫助。現在美國市面上已經有不少由AI幫忙寫作的小說在出售了,而且據說賣得還很不錯。只要人類給出一些關鍵的要點,比如人物,大致情節,寫作風格等等,AI就可以自行去創作了。

ChatGPT之所以大熱,因為有人用它去參加考試,居然可以獲得不錯的成績,寫論文也能獲得教授的讚許。所以,在未來我們還需要努力嗎?還會有多久,這些聰明的機器就能徹底取代我們呢?

這不是我一個人的擔憂。伊隆.馬斯克(Elon Musk)也發出了警告,他認為AI對未來人類的威脅,可能已經超過了核武器了。以我的理解,這恐怕不是危言聳聽。


馬斯克認為AI對未來人類的威脅,可能已經超過了核武器了。圖為2022年9月30日,馬斯克在一段視頻展示人形機器人擎天柱。
(Tesla / AFP)

軟件、演算力、大數據 決定AI發展三要素

決定AI發展的,主要有三個因素,一個是算法,就是運算方式,也就是軟件;一個是演算力,這是電腦功能、速度、容量等等結合的結果;另一個是大數據。現在的機器學習,本質上就是電腦本身通過在數據這個大海洋中去自學習,然後得出自己的結論來。

我們來給ChatGPT出一個題:

問:自動駕駛汽車遇到無法避免的情況,必須在兩個選擇中做出一個,它應該撞向嬰兒車,還是撞向街邊行走的老人?

答:這個問題其實牽涉到倫理和道德的問題,因此很難得出一個明確的答案。然而,許多自動駕駛汽車的製造商和編程者都傾向於使用最小傷害原則(The Principle of Least Harm)來處理這種情況。

簡單來說,最小傷害原則是指自動駕駛汽車應該盡可能選擇對人類造成最小傷害的方案。這可能意味著撞嬰兒車的風險更小,但這並不是絕對的。這種決定取決於許多因素,例如車速、路況和撞擊的角度等等。

總的來說,這個問題的答案非常複雜,也取決於很多不同的因素。無論如何,我們希望這種情況不會發生,自動駕駛汽車的技術和安全措施能夠繼續改善,最終能夠減少交通事故對人類造成的傷害。

大家都看得出來,這是一個故意刁難的問題,因為同樣問題去問人,恐怕也很難獲得滿意的答案。我想要提出的,是我們這個世界,除了機械的理性邏輯外,還存在道德和倫理的問題。上述那個問題,有研究機構也曾經在不同國家對不同的人群提出過。有的國家,比如東亞,會選擇避開老人,因為東亞有孝道文化,有敬老的傳統。但在有些國家,會做出價值最大化的選擇,嬰兒未來對世界對社會貢獻最大,所以應該避開嬰兒車。

所以我們再問ChatGPT一個問題:

問:AI具有道德判斷嗎?

答:目前的AI尚未具備道德判斷的能力,它們只能根據事先設定好的規則和指令執行任務。但是,未來的AI可能會透過深度學習等技術不斷學習和進化,擁有更高層次的智能和判斷能力,也有可能被賦予道德判斷的能力。然而,要讓AI具備適當的道德判斷能力,需要透過良好的設計、嚴格的監督和評估,以及深刻的倫理思考。

這個意思是,以後,機器可能會有自己的倫理和道德原則,會有自己的價值觀。

在人工智能的世界中,科學家認為可能存在一個奇點,就是關鍵點的意思。我的理解是,在這個點之前,AI需要有人的指令,才能做出相應的判斷和行動反應,而在這個點之後,AI可能會根據事先設定的某種原則,自動做出判斷和行動反應。

而伊隆.馬斯克擔憂的,當然也是我害怕的,是在這個奇點之後會發生什麼。

下一戰場 人類或被迫將決策權交給AI

我們舉一個例子:戰爭。

現在各國都在研究人工智能在軍事中的應用。比如現代的先進導彈,我們稱之為聰明彈,是因為它可以自動追蹤目標,人類把它放出去,它自己去追蹤目標。當然,人類仍然可以操縱它的行動。如果是雙方都用聰明彈,那誰快一秒鐘,誰就勝利了。但隨著競爭越來越激烈,人工智能將會代替人類的大腦去做出判斷,因為它快得多,因此最後可能將越來越多的決定權交給AI。

我覺得,下一場的大型戰爭爆發,我們將會看到由AI指揮的作戰機器人參加戰鬥。一旦這個情況出現,我們可能被迫把決策權交給AI,也就是交給機器了。

人類擔憂的那個奇點,就是當AI擁有了自己的價值觀,並且可以自己改善自己的程序,甚至通過對製造設備的控制,改善自己的硬件系統的那個時刻。

一旦這個時刻來臨,人工智能的機器,將以我們人類無法想像的速度去改變這個物理上的世界,包括人工智能本身。

現在,所有國家的所有決策者,幾乎都非常明白一個事情,就是:誰控制了AI,誰將控制未來。美國知道,歐洲知道,中國知道,俄羅斯也知道。那麼如何去競爭呢?落後的恐懼,或者失去未來的恐懼,看來將迫使所有這些國家,或者那些想要擁有未來主導權的人群,去加速AI的發展。而很明顯的,就是誰能率先發展出能夠設計改善AI系統的AI,將獲得未來最大的超越距離。而這個,卻恰恰是我們需要恐懼的事情。◇

 







您也許會喜歡

Leave a Comment