6月29日下午,中國社科院哲學所科技哲學研究室主任段偉文研究員應邀做客我校科技人文講堂,作題為“生成式人工智能時代:如何從知識自動化的邊疆戰略轉移?”的報告。本次報告由科技哲學系王高峰副教授主持。
生成式人工智能:空間、數據、隱喻
報告之初,段偉文研究員提出作為一種全新的知識引擎,基于大型語言模型的生成式人工智能正在將知識、智能和思想智能機械化和產業化推向全新的高度。
在空間維度上,人類歷經了物理空間、數字空間和生成空間的轉換。在數據維度上,數據超越形式化的語言,實際上成為對現實世界的一種記錄,本質上具有技術性和社會性。在隱喻維度上,透過對聊天章魚、隨機鸚鵡等針對大型語言模型的智能本質及其危險的批評再辨析,以及長期風險、人機對齊及其開發者主動要求監督等超級智能與生成風險敘事的質疑,段偉文研究員認為生成式人工智能正在導致知識自動化這一新的技術社會系統革命。
大型語言模型帶來的相變
在講座過程中,段偉文研究員重點提到了大型語言模型帶來的相變。一方面,語言使人類智能聯結成巨大網絡。換句話說,語言是思維的聯網,是智能的社會性的假肢。當科學家考慮人工智能時,他們主要想到的是建模或重建單個人腦的能力。但現代人類的智力遠遠超出了個體大腦的智力。我們的機器可以從作為人類知識儲備的寫作中獲益匪淺。因此,模型的詞義和世界知識往往非常不完整,迫切需要其他感官數據和知識來增強。另一方面,大型語言模型類似于煤炭、石油、電力等能源,具有足夠的革命性,實際上是會改變人類產生和運用語言的方式。
在此基礎上,我們需要思考大型語言模型產生的問題,如存在人工智能會成為一種反人類技術系統嗎?我們會陷入機器家長主義嗎?大型語言模型是否會產生新的社會形態和生命秩序?段偉文研究員提出兩點思考,一是數據驅動社會。“看不見的自動化的手”通過追溯機制和反饋機制將世界舉起。在這個社會中,現實的任何表現都受制于旨在避免流程中斷并不斷追求利潤的算法。二是新生命秩序的出現。數字化作為新的自然秩序的執行機制,時時刻刻提供被認為最適用的個人和集體生存模式,而且其作用在不知不覺中流暢地發生,給人一種新的自然秩序的感覺。
此外,生成式與對話式人工智能引發了人和語言的雙重嬗變,存在自動更正技術與內容凈化對注意力和自由意志的干預,智能行為和表達矯正技術的倫理悖論,以及數字控制技術中的權力配置等變化。
思考:如何應對生成式AI淘金熱的挑戰
報告最后,段偉文研究員提出“如何看待人類智能的價值,超越圖靈陷阱?”這一問題。生成式人工智能正在導致知識自動化這一新的技術社會系統革命,不僅令人工智能的人文主義焦慮陷入絕境,而且使社會對生成式人工智能帶來的就業和教育沖擊波的吸收能力正變得比以往任何時候都更為脆弱。如何在觀念和行動上從知識自動化的邊疆有序地轉移和再轉移,何以拒絕向機器智能妥協并尋求新的有價值的知識工作,成為人工智能時代人類走向可持續繁榮的首要文明戰略。
提問與交流:
報告結束后,段偉文研究員與在場師生進行交流討論環節。多位師生就語義學、設計哲學、網絡社交倫理以及人工智能哲學等問題進行了深入交流。以下為具體內容:
問題1:關于生成式人工智能邏輯和隱喻的關系是怎樣的,如何看待生成式人工智能帶來的邏輯、思維和知識的固化?
回答1:深層次的AI語言可能涉及到兩方面情況。一方面是陳述事實;另外一方面是創造性組合語言。我們談到人工智能的未來的時候需要考慮數字思維。對于知識和教育,將會越來越多地強調評判能力或者判斷能力的重要性。就像我們講的人類學的第一法則,它是偏離中心的,所謂偏離中心就是說它始終分解為兩個“我”,一個是第一人稱的我,一個是第三人稱的我,我們就越來越需要一個第三人,站在我之外來看我和技術之間的這種關系,并且作出評判。
問題2:如何看待技術與設計的關系,怎樣尋找研究的切入點?
回答2:建議一是閱讀設計哲學的相關書籍,二是從實踐中思考。
問題3:怎么將倫理與網絡交往研究結合以及應如何進行倫理規約?
回答3:當前,我們生活在新的數據空間里面,生活形式是逐漸形成的,可以從規則和沖突性事件進行研究反思,系統性進行倫理規約梳理。
問題4:您在講座中分享的隨機鸚鵡的危險案例提到的不可能訓練數據中的內容與自動更正技術、內容進化是否存在矛盾?還是兩者有不同的指向?
回答4:前者指的是大型語言模型的數據庫,無法進行編碼,因此存在數據偏見問題;后者指的是語言生成之后,對人類的行為具有指導意義,能更正人類的行為方式與語言表達。
(科技哲學系 李珮)