
編按:AI發展使人憂喜參半,相關議題的討論熱烈而廣泛。台灣國立清華大學人文社會AI應用與發展研究中心副主任王道維教授撰寫的〈道可道,非神道?〉一文,¹ 刊登於紀念恩福成立三十週年而出版的《文化宣教:跨學科現象及理論研究》(2024年)。爾後,王教授又對讀者多次詢問的部分加以補充,發表在他的部落格上。² 部分問答摘錄經過王教授同意並修改後,轉載於本刊。
問題一: 對比機器人和人工智慧,人類的超越性體現在哪些方面?
這個提問背後有個預設,是人類與AI可以做比較。但是我們需要先清楚瞭解人類與AI在本質上是完全不同的:以信仰來說,人類是按著上帝的形像與樣式所造,除了物質的身體也有非物質的靈魂。每一個人的大腦都有超過860億的腦神經,每一條都與其他數百甚至數千條神經複雜綿密地銜接,遠遠比世界上任何一台AI機器都複雜許多,但是能用最小的能量(一餐飯與一杯水)來維持效率且多功能的同步運作。而AI則需要高速晶片在消耗極多的能源下來執行某些特定功能。這個本質上的差別我們需要銘記在心。³
然而,不可否認的,如果我們只限定「在特定領域中」,現代電腦或AI的「處理速度」顯然已經超過所有人類,例如程式碼撰寫、數學計算、線上遊戲、影像辨識、資料蒐集、多語言翻譯等等。
不過,如果以「處理品質」來看,AI只可能在有清楚定義且有客觀標準的問題(如基礎科學或遊戲比賽等領域),可以比人類做得還要好;但是,對於人文社會領域(如司法判決、政治決策、心理諮商、音樂創作、文學評析等等),由於學習資料與標準設定都來自於人類自己,而所謂的「答案」也往往僅適用於某種特定的時空或文化環境,大抵只能達到平均的水準(根據學習的資料來決定),不大可能超越人類中的專家。以司法AI為例,我們可以期待AI能夠協助一些較為簡單的案子,但不應期待它可以比資深法官還能處理複雜的政治案件,當然更不可能突破過往的法律框架來追求某些理念上的正義。事實上,人類自身對這些問題也可能沒有一致的答案,那AI又該從哪一方面的資料來學習呢?
因此,人類相對於AI的超越性正體現在:人類能夠表現出豐富的情感和觀念,認知、思考並理解複雜的系統和價值判斷;人類也能夠創造和改變事物的結構,對周圍的環境、社會和文化有實質的影響力;按照上帝形像與樣式所造的你我,更可以有靈魂接觸物質界以外的靈界。雖然機器人和人工智慧在某些特定的問題上可能比人類強,但是它們完全沒有辦法取代真實的人類。我們也需要避免將人類自身的價值只限定於某些特定領域,那樣反而將原來豐富的人性異化成可以量度的指標,而在那個領域則可能被AI超越或取代。
問題二:人類有可能與AI產生情感關係或位格上的交流嗎?
對於這個問題,我們可以先從技術性的角度瞭解:儘管AI有能力「模擬」人類某些特定的情感和行為(如ChatGPT的對話),但其本質上只是在計算某種機率的最大值作為模擬的結果,並沒有心理與情感的物質基礎。⁴ 因此,AI本身完全不會有真正的意志或情感,只是按照使用者的設定而回應。
如此,我們比較需要擔心的是人類會對AI產生錯誤的情感連結。人類會對有類似行為的對象(人、寵物或AI)產生「移情效應」或「情感依附」,故此,倘若自己因著情感需求而長時間地與AI深度對話,就容易把自己的情感對象投射在其上,依戀AI或以為對方也對自己有類似的心理感情。這樣的情形的確是存在的,嚴重的甚至有愛上AI虛擬情人而作出反常行為的情形。⁵
人類的這些情感投射能力本來是上帝所賦予的,好跨越人類自我的限制而進行彼此同理;但是,的確也會因AI模擬人類技術的進步而造成當事人認知上的混亂,特別是當一個人處於孤單、有強烈情感需求或意志力脆弱的時刻。
以上狀況確實需要我們更多警醒。在未來AI的發展與使用上,也應該要有相關的政策性規範,以減少這類錯誤的發生。

問題三:基督徒可以在哪些方面使用AI幫助我們的信仰與服事?
從聖經創造論的角度,有正確的本質定位才能有效處理倫理議題,所以將AI作為一個輔助人類的工具,是比較正確、合宜的定位。
首先,筆者在過往的文章中曾經提到,⁶ 可以將ChatGPT按照使用目的區分為「方便實用」、「創意豐富」、「正確可靠」三個類型。
「方便實用」是關於文書工作的處理(例如摘要文章、生成普通公文信件、整理表格、改變文章風格等等),不牽涉到正確性或教義性的問題,應該鼓勵使用,來簡化教會內部的行政流程。節省下來的時間與人力,可以作更需要細心思考的工作或更有品質的陪伴關懷。
「創意豐富」是一種發散型的應用(例如設計標語、活動安排、創意寫作、圖像生成等等),沒有標準答案,正是生成式AI最強的功能。筆者鼓勵教會與基督徒在這些方面充分應用,因為基督徒受限於教義嚴謹與傳統的規約,往往在創意方面較為保守,失去與流行文化或年輕世代的連結。使用者可以藉AI的設計擴增創意的範圍,只需要挑選出沒有違反信仰原則也不會產生誤導的方式來採用。
關於「正確可靠」的使用目的,那多半是關於信仰的教義、聖經解釋或信徒生活指引的倫理問題。由於生成式AI的確可能會產生錯誤的訊息或不好的資料,在信仰領域也可能帶給人一些誤導,所以不能全然將之等同於信仰權柄來源。可能的錯誤是資料型的,如錯誤的經文內容或出處,神學名詞與神學理論的張冠李戴,或是編造的福音見證或歷史故事等等。
筆者認為,基督信仰的基本原則是「鼓勵信徒有思辨能力」,不盲目追隨相信一個宗教領袖或教會教導(若這樣就不會有宗教改革)。因此,基督徒應該避免獨斷相信AI生成的結果,只將其生成的靈修文字作為基本素材,對此有更多思辨與對話,嘗試從不同角度來理解或反思,更好地引導彼此有思辨信仰真諦的空間。與此同時,牧者也需善用AI作「啟發式」的信仰教育,將信仰的真理精髓透過思辨討論融入信徒的心中。

問題四:如何更好利用ChatGPT得到所需要的屬靈知識而避免可能的錯誤?應用於牧者講章預備或主日學教育有何需要注意的地方?
首先,我們需要瞭解這類大型語言模型的基本原理,才不會有錯誤的預期或不合宜的想像。最常見的誤解是把ChatGPT這類生成式AI當作「搜尋引擎」來使用,以為問甚麼問題都會從中得到最新或最正確的資料。⁷ 雖然ChatGPT的確使用大量的文字資料來訓練,但程式庫中並沒有這些資料,只有幾千億個參數(這些參數的意義沒有人懂),負責把使用者輸入的問題轉換成我們所看到的「回答」。現在許多AI模型也可以同時參考網路資訊來回答,但前提是假定所蒐集到的網路資訊是正確的。而這往往又可能會受到其他形式(如假新聞)的影響。
這種方式產生的文字,本來就只是AI根據提問的文字與相關資訊的前後文來「猜測」。這些被產生出來的語意概念,之前可能並未在任何一個網頁或書本中出現,只是針對使用者的需求而被組合生成出來。例如,讀者可以任意組合看起來不相關的兩個詞,ChatGPT都可能滔滔不絕,十足一本正經地胡說八道。
其次,如果我們沒有辦法確認所得到的結果是否正確,最快速的檢視方式是請它重新產生幾次,比較一下所出現的答案是否一致。如果只有一些文字細節上的差異,整體的回應結構與內涵是一致的,那也許這個結果值得參考(雖仍然可能有誤,但機會少得多)。反之,如果每次出現的回答有不小的差異,可能代表這個問題AI其實沒有把握,很高的機率是每次回答都不值得相信;只有「意見」的層次,還未到「知識」的層次。⁸
再則,大型語言模型所產生的這類「虛擬知識」,即使是有相當的一致性,⁹ 仍然是與使用者的提問方式密切關連的結果,並非一個獨立於提問者的靜態命題。因此好的提問方式或清楚明確的指令(Prompt),往往也是得到好的答案或正確可靠知識的前提。
筆者建議,可以用以下四層結構請ChatGPT更好完成任務。第一,設定ChatGPT的身分、場景與過往資歷,讓他知道以甚麼身分處理。例如,改革宗神學/靈恩神學背景的牧師、學者或宣教士,是要用在週日講章或婚禮致詞等。第二,明確定義任務的目的、對象與想要達到的目標。例如,針對家庭主婦或職場人士的內容,希望能產生即知即行的動力或自我反省的探索。第三,設定完成任務所需要的完整原始資料、定義、條件或限制等。例如,聖經章節的進度、節期的需求、重大社會事件的內容或表達風格等。第四,設定完成任務時的呈現架構、字數、語言、表格或範本等。例如,分五個段落,是否要有大小標題,相關聖經經文、生活實例、時間列表等。
總的來說,雖然在屬靈知識的學習與講台講章的預備上,使用生成式AI需要有所警醒,但是只要適當善用,應該可以帶來許多新的可能與發展。更重要的是,它可以幫助牧者減少準備時間,讓牧者專心將個人的牧養經驗或屬靈洞見與ChatGPT提供的基本知識相結合,讓訊息內容有更豐富的層次,也更容易貼近不同族群的需求,讓從上帝來的感動更進入受眾的內心。
參考文獻
1、此版本與後續的補充更新可見於:王道維,〈道可道,非神道?──從基督信仰看能言善道的ChatGPT與其對教會的挑戰〉,https://blog.udn.com/dawweiwang/178590221。
2、可參考,王道維,「關於「ChatGPT與基督信仰」常見的問題與回應」,https://blog.udn.com/dawweiwang/179259856。
3、對這主題有興趣做一些初淺而非技術層面深入瞭解的讀者,可以參考筆者曾經拍攝的「人文社會AI導論課程」,國科會人文社會科學研究中心支持拍攝。所有的影片與投影片網址亦可見於筆者的部落格連結:https://blog.udn.com/dawweiwang/168003413。其中第四集「AI的是與不是」有更多的說明與釐清。
4、雖然有人嘗試用多體物理(many-body physics)中的湧現(emergence)來描述當今大型語言模型所可能有的類似意識形態的反應,但是筆者作為物理學家,認為這些臆測遠比定論多得多,尚屬於名詞借用甚至還不到完整假說可以驗證的階段。有興趣的讀者可以參考,〈AI憑什麼這麼強 (一):人工智能模型的湧現現象〉,vocus(5/17/2023)。引用網址:https://vocus.cc/article/6463a768fd8978000178bfe8。
5、〈比利時男子「沉迷和AI聊天」6週後輕生亡,詭異對話曝光〉,ETtoday新聞雲(3/31/2023)。引用網址:https://www.ettoday.net/news/20230331/2470681.htm#ixzz82m8piykV。
6、王道維,〈迎接「後知識時代」的來臨—從生成式AI的虛擬知識談起〉,風傳媒(3/31/2023)。後來補充修改的版本可參考作者的部落格原文:https://blog.udn.com/dawweiwang/178728006。
7、目前號稱可以連網的AI是將搜尋過後的資料重新整理呈現,並不是像許多人想像中根據最新資料來訓練。這其實也很容易理解,因為訓練大型語言模型需要好的資料與訓練時間,即時的新資料既大量又良莠不齊,若不加篩選地使用於模型訓練,結果可能更糟,也不會是最即時的(因為重新訓練需要時間)。反之,若用過往的訓練結果,也就無法產生最新的資訊,這些都是大型語言模型技術上的限制。這就像看很多即時新聞的人,不見得比閱讀政經歷史的學者更能洞察時事。筆者相信,未來或許會採用階段性的更新,例如每三個月重新訓練一次,但也要審慎評估這樣的結果,不見得比使用過往資料好好訓練的模型更為優秀。
8、王道維,〈當Google遇上ChatGPT——從語言理解的心理面向看AI對話機器人的影響〉,風傳媒(2/11/2023)。網址:https://www.storm.mg/article/4725780?mode=whole。後來增補的版本可參考:https://blog.udn.com/dawweiwang/178350327。
9、見前註6。

作者是國立清華大學物理系教授、諮商中心主任、人文社會AI應用與發展研究中心副主任。