注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁新聞資訊文化

未來十年,人工智能是否會對人類文明造成奇點式影響

7月7日,“2023 IJCAI-WAIC大模型與技術奇點:人文與科學面對面論壇”在上海張江科學會堂科創(chuàng)廳舉辦

7月7日,“2023 IJCAI-WAIC大模型與技術奇點:人文與科學面對面論壇”在上海張江科學會堂科創(chuàng)廳舉辦。在本次論壇上,5位頂級國際人工智能專家和5位國內(nèi)外知名人文學科領軍人物展開了精彩的思想碰撞,討論面對人工智能的超越發(fā)展,我們應該如何應對,以期共同構建一個可信的、有邊界、有隱私、有道德、有秩序的人機共生的未來。

論壇現(xiàn)場 第一部分


生成式人工智能給我們帶來了哪些機遇與挑戰(zhàn)

在論壇的第一部分,對于時下發(fā)展迅猛的生成式人工智能,與會嘉賓認為,它對各學科都有正面影響。上海智能教育研究院院長袁振國指出,它會使得人類知識增長方式發(fā)生重大變化,而這對于教育、學習又會產(chǎn)生 3 點顛覆性變革影響:第一,從獲得答案到提出問題轉(zhuǎn)變。第二,從獲得知識到辨別知識的轉(zhuǎn)變。第三,將人和人的關系轉(zhuǎn)變成人和機器的關系。

華東師范大學紫江特聘教授許紀霖則認為,ChatGPT的出現(xiàn)會使“人人都將是陳寅恪”。他說:“陳寅恪作為 20 世紀中國最有影響的史學大師,其本人懂得十幾國語言,被認為是了不起的存在。而今天,我們問 ChatGPT 一個問題,可能會得到比陳寅恪的回答更加完備的答案。這意味著,人工智能將顛覆學科中的教學模式。同時,ChatGPT 的出現(xiàn),會使得好老師、好學生的評價標準出現(xiàn)變化。好老師意味著教學水準要超過 ChatGPT,而好學生要從被動接受知識轉(zhuǎn)變成提出能夠主動提出好問題,所以,ChatGPT也有機會讓學生成為創(chuàng)新型人才?!?/p>

上海社會科學院哲學研究所副所長成素梅提出,ChatGPT的出現(xiàn)不僅激發(fā)了許多傳統(tǒng)哲學問題的討論,而且?guī)砹诵碌恼軐W問題,使哲學從科技發(fā)展的邊緣走向中心。當下,ChatGPT 的興起,對應于路德維?!ぞS根斯坦的哲學思想,突出了人工智能與人之間的相互學習,體現(xiàn)了社會性。當人與機互動從文字交流發(fā)展到用自然語言互動時,人工智能的應用場景將會更大。從哲學角度來看,這促使我們需要重新審思現(xiàn)有的哲學框架、概念體系如何隨著技術發(fā)展的變化而變化等問題。

同時,生成式人工智能也對各學科提出了新的挑戰(zhàn)。對此袁振國認為,首先,互聯(lián)網(wǎng)及人工智能對循序漸進的學習方式產(chǎn)生了挑戰(zhàn)。傳統(tǒng)學校課程設置、教學編寫、教師要求都是按照循序漸進的方式進行的。但是現(xiàn)在的知識呈現(xiàn)方式完全不受該限制,沒有上過學的小孩子可以自主學習量子力學、黑洞理論等知識。其次,是知識的系統(tǒng)性。在傳統(tǒng)的大學教育中,課程設置層次清晰,可分為基礎課程、專業(yè)課程和應用課程等。然而,隨著搜索引擎的普及,我們可以根據(jù)需要隨時搜索所需的信息,也可以隨時提出問題尋求答案,而不再依賴于一個系統(tǒng)化的知識體系。長期以來,我們的教育體系建立在循序漸進和系統(tǒng)性的基礎上。倘若這兩個基礎瓦解了,我們需要思考如何構建一個適應新背景、與網(wǎng)絡、人工智能和大規(guī)模模型相適應的教育新形態(tài)。

許紀霖則提及世界人工智能大會開幕式上黃仁勛的說法,即下一波人工智能的浪潮是具身性,即機器人有了身體,擬人化的機器人。他說未來5-10年,人工智能要解決的問題是數(shù)字生物?,F(xiàn)在的人工智能在某種意義上是沒有肉身的,它只有知識,甚至有智慧,但是它的情感功能開關是關閉的?!拔覀冏鳛樽匀蝗耍覀儜粦撟屵@個人工智能擁有自我意識這個問題是一個哲學上的問題。”許紀霖說。

許紀霖指出,許多探討了人機關系的科幻片今天都成為了現(xiàn)實。當機器人獲得自我意識之后,可能會出現(xiàn)一些不同的情景。一種可能是自然人和機器人和諧相處,但也有可能出現(xiàn)另一種情況,即機器人成為一個新的獨立物種,與自然人發(fā)生物種之間的沖突。如果我們沒有控制能力或控制意識,我們將面臨一場物種之間的戰(zhàn)爭。今天我們作為碳基生物對硅基生物的了解有限。一旦人工智能超過某個臨界點,超越了我們的控制,它可能會發(fā)展出一套獨特的邏輯和理性,以及選擇和情感功能。就像原子彈和核技術的發(fā)明一樣,如果沒有某種監(jiān)管和控制,它可能會帶來毀滅性后果。

許紀霖說:“從哲學角度來說,我們必須有一個預設,可以是以人類為中心對人工智能進行限制,也可以是一些后人類主義的預設,即試圖與人工智能平等共處。但是個人而言,我更傾向于在面對未知時保持審慎。我們需要敬畏自然人,畢竟碳基生物經(jīng)歷了上萬年的自然進化,擁有自我保護機制。然而,我們?nèi)祟愄斆髁?,如同上帝般?chuàng)造了新的人類,等到我們意識到AI不可控時,可能為時已晚。因此,我贊同我們需要成立一個國際組織,對 AI 行業(yè)制定全球規(guī)則來確保人工智能的發(fā)展對于人類是有益的,不會帶來無法預測的風險。”

那么碳基生命和硅基生命能否和諧相處?對此,成素梅認為,硅基生命是介于人與工具之間的新生事物,是人類的物質(zhì)助理。硅基生命對人類的威脅不在于其發(fā)展成為擁有超強能力的生命體,而是在于這種發(fā)展將會把人類追求的自動化從生產(chǎn)領域拓展到知識、思想乃至決策領域,并且,加速人的身體技術化和精神技術化進程,使關于“人是什么”問題從古老的哲學命題變成當今的實踐命題。從這個意義上看,不是硅基生命的失控會摧毀人類,而是人類在新一輪文明轉(zhuǎn)型過程中,可能會由于“人性”的狂妄而導致自毀。因此,我們需要在文明轉(zhuǎn)型的出發(fā)點開啟新征程,致力關注如何提升人的生命意義和精神境界的問題,拉成“人,成之為人”的第二個過程。第一個過程是人從自然界中分離出來,第二個過程是對人性的真正理解和自覺守護。

香港科技大學教授楊強表示,人類在近幾年的科學研究中遇到了多次技術變革,這不僅僅是挑戰(zhàn),更是機會。他說:“每一次科學技術變革會帶來一些新的機會,我們應該關注這些新機會,真正革命性的變化可能也在孕育。我們承認我們的大腦只有那么大,我們的神經(jīng)元只有那么多,但是有一天神經(jīng)網(wǎng)絡的神經(jīng)元可能會超過我們,它可能會在解決某些具體科學問題的時候比我們要強得多,那個時候科學研究者就要改變他們的工作方式。也許10-20年以后,有些自然科學和社會科學系里的人類會變得非常少,更多的是人工智能在協(xié)助做研究?!?/p>

論壇現(xiàn)場 第二部分


AI的發(fā)展是否會對人類文明造成奇點式影響

在論壇的第二部分,與會嘉賓針對未來十年人類和AI的關系進行了預測和展望。上海紐約大學校長、華東師范大學哲學系教授童世駿認為,AI最后會和人類有什么樣的關系,取決于人類自己想要干什么;人類在認識世界的過程中也認識了自己,在改造世界的過程中也改造了自己。人工智能可以做到很多對我們有益的事情,但是也可能會做出對我們有害的事情;而有害的事情,哪怕只有很小的發(fā)生概率,也是需要我們特別重視的。就此而言,把中國憂患意識的傳統(tǒng)和古希臘好奇意識的傳統(tǒng)結合起來,對處理好人工智能和人類的關系,極為重要。

而華東師范大學政治與國際關系學院院長吳冠軍則補充道,目前已經(jīng)有一門學問叫做技術政治學,研究技術對人類共同體組織形式所產(chǎn)生的實質(zhì)性影響,很多時候我們對這些影響視而不見。技術在智能上可能超過人類,但我們?nèi)匀豢梢园l(fā)展政治智慧,用這份智慧把我們組織起來,一起應對GPT時代的文明性挑戰(zhàn)。

澳大利亞新南威爾士大學教授托比·沃爾什(Toby Walsh)則提出了他的兩個嚴重的擔憂。他認為這將是人類歷史上最大、最嚴重的擔憂,所有的人類文明、文化知識、科學知識,在幾個月內(nèi)就被 AI 收集捕獲,且沒有給予人類智慧任何尊重,沒有給予創(chuàng)造這些智慧財產(chǎn)的人類任何價值回報。他說:“我們曾對社交媒體獲取用戶個人數(shù)據(jù)感到擔憂,但從沒意識到這其實意味著我們要放棄全部人類知識總和,以及少數(shù)幾家公司從中獲利,從而使得整個社會變得貧窮。這是我的第一個擔憂?!?/p>

第二個擔憂更為緊迫更為重大,他擔心人類無法從社交媒體中學到任何東西。社交媒體能連接用戶,同時也會加劇人類之間的分裂,例如政治觀點極端化,在許多方面,它被用來制造傷害、煽動暴力、讓幫助者難堪,這些都是通過在社交媒體上發(fā)表的帖子引起的。大量數(shù)據(jù)顯示,使用社交媒體不但不能提升幸福感,反而會加劇焦慮。而且這些傷害往往是意料之外的。

沃爾什說:“隨著類似生成式AI的出現(xiàn),我擔心我們正在經(jīng)歷同樣的事情,但是幾年后會發(fā)生什么?帶來哪些危害? 社交媒體上的‘惡’都源自人類行為,所有假消息、所有極端觀點都會被這些工具利用起來,我們現(xiàn)在可以通過生成式AI對其進行擴展和個性化,并且已經(jīng)開始出現(xiàn)一些負面的應用案例了。我們可能會陷入一個無法分辨真假的世界,每一張圖片、每一個視頻、每一個音頻都有可能被篡改。而且當我們談論任何媒體時,我們需要留意所有被告知的事情,可能只是某種合成元素的產(chǎn)物。所以我認為,在開始擔心生存風險和接下來要面對的事情之前,我們現(xiàn)在面臨著非常緊迫的挑戰(zhàn)?!?/p>

當智能從大型語言模型中涌現(xiàn)出來,人類應該如何重新思考智能?對于這個問題,童世駿表示:“AI是一個工具,至少是我希望AI永遠只是為人服務的工具。人類具有意識,它有兩個最基本的條件,一是要有主體間的互動,二是要有第一人稱視角,或者說,日常生活世界中的第一人稱經(jīng)驗。但這兩者AI都沒有??梢栽O想機器人借助于自然語言不僅能學習現(xiàn)有知識,而且能在與用戶和其他機器人的互動中生成新知識,但這種互動并不是人類社會的正常互動。缺乏這種正常的人際互動,機器人即使具有意識,也會像人類當中因為無法參與正常的人際互動而出現(xiàn)的自閉癥患者那樣,只能具有殘缺意義上的意識。我不希望未來有一群機器人版本的自閉癥患者來取代人類,所以我不贊成讓AI變成一個人類平等對待的物種?!?/p>

沃爾什認為,今天的機器并不具有意識,但這并不意味著機器不了解任何物理定律。我們對于意識的了解還非常少,甚至都無法清楚地定義它。但是,這并不能排除未來機器擁有意識的可能。如果幸運的話,機器永遠都不會產(chǎn)生意識,因為一旦機器變得有意識,就需要賦予其權利。相反,如果像現(xiàn)在這樣,機器沒有自我感知能力, 那么人類可以繼續(xù)把它當作仆人對待,并讓其執(zhí)行已經(jīng)設定好的任務。未來充滿趣味和挑戰(zhàn),在探索和建立新技術過程中, 或許人類可以更深入地理解關于人類存在的基礎,即使機器可能永遠無法真正活過來。

吳冠軍認為,隨著大語言模型的興起,人工智能已接近擁有通用智能。而人工智能是否會有意識,這仍然無法預知。就目前的技術發(fā)展路徑來看,意識很難產(chǎn)生,但僅僅不久前我們曾經(jīng)也認為通用智能短時間內(nèi)不會出現(xiàn)。隨著規(guī)模而產(chǎn)生的“涌現(xiàn)”,已然是人工智能研究中的一個必須關注的現(xiàn)象。因此,吳冠軍指出,在當下我們需要看到:作為一個技術存在,人類正在使用人工智能,但后者也正在極大地改變著人類做事方式及對彼此的理解。如何應對這種改變已成為全社會的挑戰(zhàn),而我們需盡快思考如何具體去應對。

本次論壇由世界人工智能大會(WAIC)組委會指導,國際人工智能聯(lián)合會(IJCAI)中國辦公室、華東師范大學聯(lián)合主辦,華東師范大學政治與國際關系學院承辦,華東師范大學奇點政治研究院、安遠AI、HyperAI超神經(jīng)數(shù)據(jù)科學社區(qū)、德匯科技創(chuàng)新中心協(xié)辦。

論壇現(xiàn)場



熱門文章排行

掃描二維碼
Copyright ? 讀書網(wǎng) www.dappsexplained.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號