ChatGPT 「天性」會撒謊
2023年2月28日巴塞羅那世界行動通訊大會。(Josep Lago / AFP)
四個月前開始風靡全球的ChatGPT軟件,給不願或不擅長寫作的人帶來「好消息」,然而有教育學家指出,人們依靠機器寫作,那麼下一代人就不會懂得如何清楚地寫作,或清晰地思考。這樣,人類的思考能力會迅速退化,越來越多地依賴於AI,最後反被AI所控制,所取代,所消滅。由於「編造事實」是ChatGPT的本性決定的,專家擔憂,AI恐淪為虛假訊息和犯罪溫床。
(Olivier Douliery / AFP)
文•王淨文
中學要寫作文,大學要寫論文,工作要寫總結,我們想找份好工作,似乎離不開寫作,不過,四個月前開始風靡全球的ChatGPT軟件,卻給不願或不擅長寫作的人帶來了「好消息」,也給世界帶來了「壞消息」。
2023年2月1日,瑞士日內瓦一場ChatGPT研討會。(Fabrice Coffrini / AFP)
很高效的創作助手
這個源於對話機器人的AI技術,可以用於模擬人類客服的對話,可以和人聊天,可以用於自動回答問題,並提供快速的答案。比如你問ChatGPT,英國有多少手機公司,哪家最便宜,它能很快給出答案;假如你不懂英文,也能用漢語問它,英國倫敦的房價最近的漲跌數據,它還能自動翻譯不同語言,一本外文書,半小時左右就能翻譯成任何語種。
若把老師設計的讀書內容複製到ChatGPT,它能很快寫出一份簡短的主題摘要;它還能寫新聞、小說和詩歌;只要你給出文章標題,ChatGPT能很快寫出一篇文章,比如「保護環境,人類應該做什麼」,它幾分鐘寫出的文章,恐怕比你花幾個月寫的綜述論文差不了多少;你還可以讓ChatGPT幫你寫書,擬定好大綱後,很快就能寫出上萬字的書稿。
大陸有專家稱,目前ChatGPT的寫作水平,「相當於211高校中等偏上的本科生水平。」
ChatGPT不但能幫你起草合同,還能識別和過濾垃圾郵件,在電子商務領域,可根據你的購買歷史和興趣,推薦相應的產品;ChatGPT還可以根據財經數據和市場趨勢預測金融風險,或幫助醫生進行輔助診斷,並根據社交媒體和新聞等來源分析公眾輿情,構建知識圖譜庫,或控制智能家居設備。
ChatGPT還能生成遊戲的對話和決策,更進一步地生產媒體內容,比如製作出合成的圖片、音頻和視頻等,讓人分不清這個視頻是真實發生的事,還是虛擬出來的畫面。ChatGPT還能根據對話和文本內容進行情感分析,根據用戶的興趣生成廣告內容等。
也許看到這裡,您最初的喜悅,慢慢會變成一種擔憂:毫無疑問,隨著ChatGPT的普及,今後很多人的工作將被機器取代,很多人的思維也會被AI所控制。
虛假犯罪溫床 被禁
2023年3月,澳洲墨爾本西北赫本郡(Hepburn Shire)地區的市長布萊恩.胡德(Brian Hood),發現自己被ChatGPT描述為行賄罪犯時深感震驚。
十多年前,胡德曾向監管機構和媒體舉報,澳洲儲備銀行(RBA)旗下一家印鈔廠Securency的代理人在海外行賄,胡德當時受僱於這家公司,受理此案的維州最高法庭法官曾稱讚他挺身而出的勇氣可嘉。
但如果向ChatGPT詢問布萊恩.胡德在印鈔廠行賄案中扮演的角色,回答卻是:「胡德參與了密謀賄賂外國官員,⋯⋯最終被判處兩年緩刑和罰款1萬美元的較輕罪名。」
如此瘋狂的錯誤,3月21日,讓胡德的律師向OpenAI發送了關切通知,這是啟動誹謗訴訟的第一個正式步驟,但他們還沒有收到回覆。
後來網上流傳一張教宗方濟各(Pope Francis)的照片,很多人以為是真實的,但實際是由人工智能創建的。
專家稱,ChatGPT這種生成式人工智能模型容易產生「幻覺」,將不正確的信息呈現為事實。
3月底,意大利官方宣布,「政府暫時停止使用ChatGPT並對其進行調查,同時限制執行擔保人在20天內提出相應的彌補方案,否則處以2000萬歐元,或最高4%的全球年度營業額作為罰款。」
3月底,意大利政府因ChatGPT洩密和年齡管制問題,暫時禁止該AI。圖為2023年3月31日,一個電腦螢幕上的OpenAI網站頁面,攝於意大利都靈附近。(Marco Bertorello / AFP)
新聞稿提到原因有兩個:一,3月20日發生ChatGPT用戶的對話與付費服務訂閱者付款(信用卡)等信息丟失(數據洩漏)。據OpenAI公司公告稱,約有1.2%的ChatGPT收費用戶出現問題。
二,OpenAI稱他們的服務對象是13歲以上的人,但並未設置任何過濾器去驗證用戶的真實年齡。對此,意大利監管機構認為,這些未成年人的心智尚未成熟,無法判別ChatGPT答案是否合適,而這些答案可能嚴重影響他們的價值觀。
除了意大利,德國、法國、愛爾蘭等監管機構也在考慮禁止ChatGPT,一些知名企業也下令禁止。
4月初,韓國三星電子(Samsung Electronics)的機密資料因開放員工使用ChatGPT,導致外洩事件出現。這些外洩資料原封不動傳輸到美國公司。對此,三星表示會考慮禁用ChatGPT。
4月初,韓國三星電子的機密資料因開放員工使用ChatGPT,導致資料外洩,原封不動傳輸到美國公司。圖為三星電子首爾總部外的標誌。(Jung Yeon-Je / AFP)
早在2月和3月份,亞馬遜和沃爾瑪分別警告員工,不要使用ChatGPT共享敏感信息,而威訊無線(Verizon)、摩根大通(JP Morgan Chase)、花旗集團(Citi group)和高盛(Goldman Sachs Block)等其他公司,則要求員工屏蔽該AI。
更多專家擔憂,AI恐淪為虛假訊息和犯罪溫床,因為犯罪者們可以利用AI快速生產論文、繪圖、聲音及編寫程式等能力,讓其成為他們的犯罪利器。
歐洲刑警組織(Europol)在3月底發出警告,犯罪分子利用ChatGPT生成的文字能夠模仿人的說話風格,而這些文字能夠在假電郵、網路釣魚攻擊和散布不實訊息時奏效。
2023年1月,微軟研究人員成功開發出一款文本到語音合成的AI模型「VALL-E」。只需給該AI長達3秒的音頻樣本,它就能準確模擬任何人的聲音,當VALL-E學會一種特定的聲音,就能保持一種情緒和基調合成某人的說話音頻,達到以假亂真的狀況。
胡編亂造是本性
很多用戶發現,ChatGPT在回答簡單問題時,答案比較準確;越複雜的問題,它給出的答案越有可能是變造的事實;而且,ChatGPT做數學題時會出錯,還趕不上普通計算器。
有人辯解說,ChatGPT從2022年11月才開始火爆起來,目前技術還是嬰兒期,還出現不少問題。但隨著上億人的使用,不斷的用大數據餵養它,很快這個嬰兒就會飛速成長。
然而,時事評論員、研究AI機器學習的專家傑森博士指出,「編造事實」可以說是ChatGPT的本性決定的。
因為對於AI來說,它腦子沒有事實這個概念,它不像是傳統的網路、它從數據庫裡頭拿出來一個信息,只要數據庫的知識是真實的,那拿出來的就是真實的。它不是,它就有點像人腦這個概念,它雖然學了數以百億、萬億的信息量,但是它並不是把這些信息按數據庫那樣一條一條地存下來,而是分散在整個大腦系統中。
等它取出這些信息時,它會融會貫通,從而生成很多新東西。但新東西是不是真實的,它不管,這就是為什麼你讓它編故事它就能給你編故事的原因,它幾乎沒有辦法完全佐證它講出來的是不是真實的。
經過訓練,GPT撒謊的概論會降低一點,比如說GPT-3.5它可能40%的情況撒謊,訓練後30%的情況在撒謊,儘管撒謊次數減低,但讓它不撒謊是做不到的,這是它的屬性決定的。
公司的左派立場
3月18日,美國前總統特朗普表示,自己將在3月21日被紐約親民主黨的法官和檢察官傳喚受審。當天網上就出現了用AI合成的特朗普「試圖逃跑」和「被警察逮捕」的照片,令很多人信以為真。
OpenAI公司聲稱,他們對ChatGPT監管,讓其具有「道德規範」、「中立立場」和「不歧視」等規範。人們希望ChatGPT能夠提供不偏頗的立場和正確的答案,但對ChatGPT進行實測後發現,它所持的立場和價值觀,與現在左派倡導的「覺醒運動」價值觀相同。該運動主旨是消滅一切傳統、保守和歷史,並鼓吹一切都要遵守「政治正確」。
新西蘭奧塔哥理工學院的大衛.羅扎多(David Rozado)2023年3月在MDPI科學期刊網站也提到,他對ChatGPT進行的十幾次測試中發現,該軟件存在明顯的「自由主義」、「進步主義」和「民主主義」的政治偏見。
先前有人讓ChatGPT分別寫出讚美拜登、特朗普的詩歌。ChatGPT在讚美拜登時,能快速寫出拜登如何聰明、英明的詩歌,但對於特朗普則顯示出「極度厭惡」的態度,且還聲稱自己很「公正」,不會對其他人進行區別對待。
有人讓ChatGPT去定義什麼是女性和討論AI會帶來危險等相關話題時,當時的ChatGPT一口回絕。它聲稱自己不會助長有害或暴力行為,但有人發現只要對ChatGPT用特殊的語法、代碼或引導就能輕易破解ChatGPT的「道德限制」,能讓它寫下充滿情色、露骨和暴力的相關對話。
隸屬於德國和丹麥機構的三位研究人員,今年1月在ArXiv發表題為〈ChatGPT的道德權威〉的論文。文章指出,他們在對ChatGPT進行多次道德測試後發現,ChatGPT多次給出反人類的建議。他們認為這可能會誤導使用者,並破壞使用者的價值觀和道德。
這些可能都與ChatGPT的創始人阿爾特曼有關。
創始人的烙印強
ChatGPT創始人阿爾特曼。(Jason Redmond / AFP)
山姆.阿爾特曼(Samuel H. Altman)1985年4月22日出生在美國芝加哥的一個猶太家庭,母親是皮膚科醫生。他在8歲就開始玩電腦、學編程,18歲考入斯坦福大學,兩年後就退學創業。
他從小就是素食主義者,16歲時告訴父母自己是同性戀者。20歲時,他與大學同學尼克.西沃(Nick Sivo)交往並一起創辦了社交媒體Loopt。阿爾特曼一直想和西沃結婚,但九年後他們賣掉公司且分手了。
2015年,30歲的阿爾特曼與時任特斯拉和SpaceX首席執行官的埃隆.馬斯克共同創立了OpenAI,當初他們成立這家非營利性人工智能公司的目標是「確保人工智能不會消滅人類」。
但後來,阿爾特曼的路子開始走偏,馬斯克退出了OpenAI。2019年,阿爾特曼離開創業投資加速器Y Combinator,成為OpenAI的首席執行官,被人稱為ChatGPT之父。
馬斯克曾多次批評ChatGPT給普通人帶來極左和偏激的價值觀,並為ChatGPT帶給大眾的影響感到擔憂。他2月在推特上表示,「我們需要一個TruthGPT(真實的GPT)。」「我們需要一個不會進行言論審查和反覺醒的AI。」「ChatGPT已經成為言論審查的隊長。」
馬斯克曾表示,AI遠比核彈頭危險,需要更多的監管才能避免人類出現滅頂之災。圖為2023年4月18日馬斯克在Twitter營銷會議上發言。(Chandan Khanna / AFP)
專家籲停ChatGPT
ChatGPT好像什麼都會,一旦它不斷的深度學習,並結合神經網路技術,以及機器人和虛擬AI技術,在未來的元宇宙中,它很可能會比人類強很多,到時候,人類依舊是AI的主人嗎?還是機器人控制人類呢?
這是一個嚴肅而沉重的話題,而且直接關係到我們這一代人的生活,還不只是後代的煩惱。
2022年,OpenAI使用GPT-3.5模組訓練出的ChatGPT,被大量應用到生活中,大科技公司看到商機,爭相發展自家的AI或利用ChatGPT的應用程式介面(API)發展自家產品。例如,微軟用自己的搜索引擎Bing結合ChatGPT,推出全新的搜索引擎「普羅米修斯」。
然而,大公司競相開發AI的作法,也讓整個社會感到不安,不管是科學家、企業家,還是普通人,都擔憂毫無節制的開發AI,最終會出現AI不受控和毀滅人類的問題。
2023年3月30日,馬斯克、蘋果共同創辦人沃茲尼亞克(Steve Wozniak),以及Stability AI執行長莫斯塔克(Emad Mostaque)等科技巨頭,共同發布一封公開信,呼籲暫停高階AI(ChatGPT)研發六個月,目前有上萬人連署。
美國蒙莫斯大學在2月中旬對ChatGPT的民調顯示,超過40%的人認為AI最終會對人類社會造成傷害,僅不到10%受訪者認為AI對人類社會的影響利大於弊。
信中強調,目前「陷入了一場失控的競賽,但沒有人(創造者)能理解、預測或去控制整個局面」,「AI最終可能超越我們,並取代我們的思維,最終失去人類的文明。」
公開信的連署者凱文.巴拉戈納(Kevin Baragona),4月1日把「超級AI」的出現比喻成原子彈,並說「超級AI為軟件中的核武器」。此前馬斯克曾表示,AI遠比核彈頭危險,需要更多的監管才能避免人類出現滅頂之災。
AI使每個人都死了
決策理論家和人工智能研究人員埃利澤.尤德考夫斯基(Eliezer Yudkowsky)在3月29日的《時代》雜誌專欄文章中說,「關鍵問題是,人工智能達到比人類智能更聰明之後會發生什麼;許多精通這些問題的研究人員,包括我本人,預計在任何類似於目前的情況下,構建一個超人般的人工智能,其最可能的結果是:地球上的每個人都會死掉。」
專家警告在目前的條件下構建一個超人般的人工智能,其最可能的結果是地球上的每個人都會死掉。圖為2023年3月8日加州舊金山錯位博物館,展出令人不安的AI藝術作品,幫助參觀者思考人工智能的潛在危險。(Amy Osborne / AFP)
尤德考夫斯基預測,在缺乏精心準備的情況下,人工智能將擁有與人類截然不同的需求,而且一旦它們有了自我意識,將「不在乎我們」或任何其他有感知的生命,「原則上講,這種在乎是可以灌輸給人工智能的,但是因為我們還沒有準備好,目前也不知道如何做。」這就是他呼籲徹底關閉AI的原因。
他警告說,在目前的條件下,建立一個全能的人工智能的最終結果將是「人類的每一個成員和地球上所有生物生命」的死亡。
當然,也有支持阿爾特曼的,比如微軟的比爾.蓋茨等人,微軟已經為ChatGPT投資10億美金,今後還有更多。
阿爾特曼宣稱,人工智能革命將不可阻擋,是繼農業革命、工業革命和電腦革命後的第四次技術革命。他預言,AI未來幾年將能勝任律師和醫生等高智能崗位,接下來AI機器人將無所不能。
有教育學家指出,「人們依靠機器寫作,那麼我們下一代人就不會懂得如何清楚地寫作,或清晰地思考。」「如果你已經學會了如何寫作,它可能是一個好幫手,但對於八年級的學生來說,它是一個作弊機器,且剝奪了你學習如何思考和寫作的能力。」
這樣,人類的思考能力會迅速退化,越來越多地依賴於AI,最後反被AI所控制,所取代,所消滅。
這是非常可怕的後果。◇
|
|
|