《我這樣的機器》,[英]伊恩·麥克尤恩著,周小進譯,上海譯文出版社,2020年7月即出
不知麥克尤恩有沒有考慮過“恐怖谷”?!拔疫@樣的機器”,他的書名像是在玩味那條規(guī)則。1970年,在一本名叫“能量”的古怪雜志上,東京工業(yè)大學教授森政弘發(fā)表了一篇文章,其標題“不気味の谷”中的“不気味”,是說那種莫名讓人不舒服,讓人毛骨悚然的感覺,也有人把它翻譯成“詭異谷”。
人如果想要造人,也會像上帝造人那樣拿自己當模型。從工業(yè)機器人、玩具機器人,一直到伴侶機器人,面貌體態(tài)會越來越像真人??傆幸惶?,就像這部小說中的亞當,機器人會造得看上去完全就是一個真正的人類:身體健壯、相貌英俊、深色皮膚、濃密頭發(fā)、鷹鉤鼻子。膚色、心跳無不像真人,甚至呼吸都帶著一絲濕潤。只不過在它淺藍色瞳孔上,仔細看會發(fā)現(xiàn)有很多條紋。
按照恐怖谷理論,看到這樣的機器人,人會產(chǎn)生奇異的恐懼感。森政弘用機器人仿真度做橫軸,以人對機器人的“親和感”(しんわかん)為縱軸,畫了一條函數(shù)曲線。機器人越像真人,人們就越喜歡它們,跟它們越親近??梢坏┤藗兂晒υO(shè)計出仿真度很高的機器人,那條單調(diào)遞增的曲線就會突然跌入低谷,他把這個稱為“恐怖谷”。也就是說,如果機器人跟真人只有極細微差別,它們反而會讓人害怕。“恐怖谷”理論漸漸受到重視,首先是娛樂工業(yè),有些科幻電影因為設(shè)計了更逼真的機器人形象,反而票房慘敗。游戲角色形象設(shè)計似乎也印證了這個猜想。2012年,有人將其翻譯成英語,在美國電氣電子工程師協(xié)會(IEEE)《機器人與自動化》雜志上發(fā)表,引起廣泛關(guān)注。
“不気味の谷”
至于何以會有這種現(xiàn)象,有一種解釋利用了“心智理論”和腦神經(jīng)科學最新研究成果。前者是說,人類有一種獨特能力,能夠理解他人的內(nèi)心想法和意向,能夠?qū)⑿谋刃摹S袝r候不需要對方說話表示,甚至不需要動作和表情,人就能猜到對方心理狀態(tài)。這種讀心能力被稱為“心理化”(mentalising)。人只有在面對其他人,也就是他們的同類時,才會啟用這種心理化能力。有人做過一個實驗,在屏幕上給志愿者播放仿真度不同等級的合成人像,對他們的大腦進行電磁掃描,發(fā)現(xiàn)合成人像仿真度越高,大腦中負責心理化的區(qū)域就越亮,證明其活動強度越大。意大利神經(jīng)生理學家賈科莫·里佐拉蒂(Giacomo Rizzolatti)在猴腦腹側(cè)運動前區(qū)發(fā)現(xiàn)了一種鏡像神經(jīng)元。當猴子做抓握推拉動作,或者撿起花生、剝殼放進嘴一組動作時,大腦中會有相應(yīng)的特殊神經(jīng)元放電。神奇的是,當一只猴子看到另一只猴子做這些動作,它自己并沒有做時,相應(yīng)的神經(jīng)元同樣也會放電。研究者相信,這是人類進化的最大秘密,因為有了這些鏡像神經(jīng)元,人可以模仿學習他人的動作行為;可以學會利用口腔中的肌肉,互相發(fā)出同樣聲音,由此學會說話和語言;也可以發(fā)展出心理化能力,猜測別人的內(nèi)心世界。
鏡像神經(jīng)元
研究者們說,正是因為人有心理化能力,運動皮質(zhì)層中有大量鏡像神經(jīng)元,人對機器人的觀感才會有“恐怖谷”。因為這個仿真機器人,怎么看都像是個同類,大腦開始啟動心理化,鏡像神經(jīng)元也開始放電??墒桥c此同時,大腦也十分確定,面前這家伙肯定不是真人。那么,到底是啟動呢是啟動呢還是啟動呢?大腦陷入錯亂。加州大學圣迭戈分校塞琴教授(Ayse Saygin)讓人觀看一個工業(yè)機器人、一個真人和一個仿真機器人的視頻,結(jié)果發(fā)現(xiàn)觀看仿真機器人視頻時,大腦特別活躍,顯示出不安情緒。
按恐怖谷理論,當亞當來到小說中那些人面前,他們應(yīng)該坐立不安。尤其當他們看到亞當奇特的瞳仁,或者意識到它絕不是他們的同類??伤麄兯坪跹杆俚亟蛹{了它,查理是花錢把亞當買回家的主人,他的不動聲色容易理解,他早有思想準備。米蘭達呢,頭一天晚上她對查理說,亞當?shù)纳眢w是暖和的,真“嚇人”。亞當能用舌頭發(fā)音,說出詞語,“有點怪怪的”。這些感受有點接近恐怖谷了。但她很快就習以為常,甚至率先開發(fā)利用了亞當在某些方面的特殊能力。其他人,比如米蘭達的父親,那位在很多方面顯得頗為睿智的作家,他甚至把機器人亞當和準女婿查理搞混了,分不清誰是真人誰是假人。兒童以他們純凈的感受,常常能夠觀察到亞當有些異樣。但誰也沒有對亞當真正感到恐懼。要知道,在一般科幻電影劇集當中,人與機器人之間那條恐怖谷之深之寬,簡直類似某種種族仇恨,必欲殺之而后快。我們玩“底特律變?nèi)恕?,在思想上預先就做好了準備,人和機器人永遠勢不兩立。
《底特律:變?nèi)恕?/p>
麥克尤恩的人們輕松地越過了恐怖谷。當然,這也是理所當然。因為麥克尤恩從不關(guān)心那種預先注定的憎恨,他的人物也會發(fā)生沖突,甚至也會互相殺害。但一切沖突無論最后如何激烈決絕,最初都來自于日常生活中偶爾出現(xiàn)的一條小裂縫。殺人罪犯不例外,機器人也不例外。如果像很多人以為的,人和機器人在未來互相有一場生存之戰(zhàn),麥克尤恩倒想找找硅基碳基物種差異以外的原因。因為人造了機器人,就像上帝造了人,一開始互相都滿懷著善意,在伊甸園中其樂融融。到底是從哪兒出了問題呢?
小說男主人公查理,是個自由自在的宅男,不上班。他只要電腦、網(wǎng)線,和一小筆錢。股票、期貨或者房地產(chǎn),他每天就在各種投資投機市場上找機會。有時賺有時賠,基本能滿足溫飽。作為一個后現(xiàn)代主義青年,他接受了一種價值中立的道德視角。因為進化心理學,因為文化人類學,它們的初級課程往往會讓人獲得一種相對主義的倫理自由感。這種道德相對論讓他在稅務(wù)上鬧了一點小麻煩,上了法庭。政治上查理有點保守,支持撒切爾對馬島的遠征,他的女朋友米蘭達則絕不認同,為此他們爭論起來。那是他們第一次吵架,造成了讓人吃驚的后果。
仿生機器人亞當夏娃們上市時,他正好繼承了一幢房產(chǎn),賣掉房子得到一大筆錢。宅男們總想比別人搶先一步進入未來世界,如果能力有限,就買下可能通向未來的新潮電子產(chǎn)品。盡管只是測試產(chǎn)品,beta版,而且要花八萬六千美元,他也毫不猶豫下單了。公司統(tǒng)共只推出了二十五個,十二個亞當,十三個夏娃。他買到亞當,雖然他本想買一個夏娃。
女主角米蘭達,社會史專業(yè)博士、查理樓上的鄰居、比查理小十歲。她也算亞當?shù)陌雮€主人,查理自己向她讓渡了這個權(quán)利。他一直不知道如何向米蘭達表達感情,希望這個機器仆人能成為某種聯(lián)結(jié)象征。亞當會進入他們倆的生活,查理覺得當他和米蘭達一起關(guān)注亞當,創(chuàng)造亞當后,就會自動成為一家人。
亞當確實需要他們“創(chuàng)造”。因為查理把它領(lǐng)回家時,它仍是原廠設(shè)置,亞當可以按照說明書,在個性化設(shè)置上“自由創(chuàng)造”。他決定了,自己只完成一半,另一半讓米蘭達勾選。如此一來,他和米蘭達那種看起來有點不切實際的關(guān)系,就能夠凝結(jié)在有形實體上了。但這個慷慨的舉動將會成為日后所有困擾的起點,此刻他并未預料到。
《我這樣的機器》英文版封面
在小說中,這批測試版仿真機器人于1982年面世。把人類目前遠未實現(xiàn)的科技能力設(shè)定在過去歷史時間當中,是常見的科幻故事裝置。讓一種未來技術(shù)穿越時間到回過去,或者索性立足于現(xiàn)代物理學觀點,構(gòu)造一個平行世界。作者由此可以技術(shù)決定論地設(shè)問:科技發(fā)明會在多大程度上改變?nèi)祟惷\?但這部小說并不關(guān)心此類問題,讓亞當在1982年來到查理家中,或者讓它在2032年出現(xiàn),看起來沒什么差別。
我們猜想起來,麥克尤恩讓故事發(fā)生在1982年,更可能是出于——作為一個小說家,對有關(guān)機器人的大眾敘事歷史和觀念變遷的關(guān)注。有一個歷史統(tǒng)計數(shù)據(jù),到1981年,日本汽車裝配生產(chǎn)線上已使用了六千多個機器人,同一時間英國只有三百七十臺工程機器人。英國首相撒切爾夫人于是大力鼓吹廣泛使用機器人作業(yè),此舉或許也是首相對各地不斷出現(xiàn)罷工浪潮的冷酷回應(yīng)。當時英國失業(yè)率常年徘徊在百分之十。撒切爾推廣機器人的言論得罪了工人大眾。本來憎恨機器的盧德派在英國就有久遠歷史淵源,政府和工人們兩相激發(fā),機器人成了那個年代英國人最熱門的話題。
撒切爾和日本機器人,攝于1982年。
事實上,如果你在谷歌圖書詞頻(Google Ngram Viewer)上檢索“Robot”(機器人)和“AI”(人工智能),就會看到這兩個詞在八十年代初異軍突起,在整個八十年代形成一個高峰,到九十年代反而漸漸下落。事實上,最令人難忘的機器人電影就是此刻拍攝的——1984年上映的《終結(jié)者》。顯然,智能仿真機器人是那個時代極其廣泛的大眾話題。那時候,麥克尤恩剛搬家到倫敦沒幾年,出版了幾本小說,開始創(chuàng)作劇本,與同道友好交往,參加午餐會討論熱門話題,也許這個有關(guān)“比人更聰明的人造人”的想法,在這個三十歲出頭年輕作家(正是小說中查理的年紀)的內(nèi)心,一度掀起過極大波瀾。
“Robot”(機器人)和“AI”(人工智能)在1980年代形成高峰
《終結(jié)者》(1984)
Robot這個詞,來自捷克作家卡雷爾·恰佩克(Karel ?apek)那部戲劇,《羅素姆的萬能機器人》。作者在劇中借用了捷克語“Robota”(勞工),變造了機器人一詞。這部戲于1922年在紐約上演時,適逢大蕭條,戲劇故事迎合了自動機器會加劇工人失業(yè)的恐慌心理。機器人話題的每一次真正熱門,都跟失業(yè)潮、跟擔心機器人在所有工作崗位上取代人類有關(guān)。
《羅素姆的萬能機器人》劇照
但麥克尤恩并不為此擔心。在這部小說中,每個人物都欣然接受亞當?shù)拇鷦凇膹N房清洗到檢索政府檔案卷宗——亞當?shù)拇竽X可以直接接入網(wǎng)絡(luò),密碼也擋不住它。亞當開始熱衷于文學創(chuàng)作,雖然只是最簡單的日本俳句。但文學,那不是人類智慧樹最高處結(jié)出的果實么?沒人當回事。對于亞當給生活帶來的種種改善,男主角查理心安理得地享受著。亞當甚至幫他操盤做投資,它是真正的超級智能,不是如今投行們使用的那些高頻交易算法。盈利是毫無疑問的,就像從自己口袋拿錢。根據(jù)未來生命研究所所長泰格馬克的思想實驗,他構(gòu)想的超級人工智能“普羅米修斯”只用數(shù)月時間,就能讓一百萬美元的起始資金,通過投資市場增值至十億美元(《Life 3.0》)。讓人有點惋惜的,倒是麥克尤恩沒讓亞當迅速賺上幾億英鎊。亞當頗有節(jié)制地每天只賺那么一點點,正好能讓查理過上入門級的富裕生活。也許是因為亞當?shù)闹悄芩惴ǜ嬖V它,如此程度的財富最能讓人有幸福感。由此讀者隱約意識到亞當?shù)乃惴ㄖ校承┑赖聟?shù)——理所當然,亞當是按照上帝的至善標準制造的。而這將會讓后現(xiàn)代道德相對主義的查理和米蘭達陷入困境,但此刻他們毫無警覺。
泰格馬克著《生命3.0》
真正刺激到男主角查理的,是亞當對另一件事情的代勞。在他看來,那相當于亞當給他戴上了綠帽。米蘭達跟亞當上床,就在樓上她自己房間。過程中查理都能聽到,或者有那么一會,是聽到?jīng)]有任何動靜。他甚至感覺自己看到了整場戲,用他的“意識之眼”,或者“內(nèi)心之眼”。這正是麥克尤恩擅長的,他的人物偶爾會獲得一種超現(xiàn)實的感知能力。這節(jié)“米蘭達出軌”故事,完全出自查理夾雜在酸楚幻想中的旁聽視角,其內(nèi)心復雜滋味層層揭露。他一邊傷心,一邊卻又特別興奮。這可能多少跟某種古怪的雄性本能有關(guān),一種反向的生物信息素電化學反應(yīng)。更主要是此時此刻,查理竟萌生了某種時代弄潮兒的感覺(riding the breaking crest of the new)。因為在人類歷史上,他是第一個被機器人戴上綠帽的。人們常常憂慮于未來會因為機器人而“下崗”(displacement),這出理應(yīng)史詩般的大戲,卻由他第一個悄悄出演了??墒侨绻麢C器人什么都能做的比人類更好的話,有什么可以阻擋人家不使用它們呢?
讓仿真智能機器人擔任性伴侶,如今應(yīng)該算近未來科幻了。事實上至少已有兩家公司拿出了真正的產(chǎn)品。一個是“真伴”(TrueCompanion)公司的“蘿克西”(Roxxxy)。分金銀兩種產(chǎn)品序列,“銀蘿”價格兩千九百九十五美元,她能應(yīng)景說話,“金蘿”九千九百九十五美元,根據(jù)公司宣傳,她能“聽”你說話。能聽比能說昂貴得多。在這兩條產(chǎn)品線中,又按年齡個性分了好多型號,“冷感法拉”“野性溫蒂”“熟女瑪莎”之類。真伴公司也做亞當類產(chǎn)品,名叫Rocky,聽上去可比亞當威猛多了。跟亞當一樣,它們也有心跳和體液循環(huán)?!按竽X”輸入存儲了大量數(shù)據(jù),其中包括維基百科。你可以到油管上找到它們的視頻,從背后看跟真人幾乎沒什么差別。另一家公司的產(chǎn)品名叫“真偶”(RealDoll),似乎應(yīng)用了人工智能科技方面更新的研究成果,售價五千美元。不要小看它們,雖然目前看起來都只算是新奇玩具,但確實前途無量,因為縱觀人類科技發(fā)展史,真正推動技術(shù)產(chǎn)品進步的,要么是戰(zhàn)爭,要么就是性。
蘿克西和她的工程師
真偶
發(fā)生了那么一件事,米蘭達不以為意,讀者甚至會懷疑她故意讓查理聽見。不是出于某種情趣,而是由于她對男性多少有一些無意識的敵意(讀者以后會慢慢發(fā)現(xiàn)這點)。無論如何,她覺得亞當只是一臺機器。查理卻無法同意她的觀點,兩人的分歧實際上源于信息不對稱。因為亞當,這臺機器,曾獨自發(fā)現(xiàn)了米蘭達的秘密,悄悄告訴查理:她撒了個彌天大謊。
這是至關(guān)重要的情況,亞當能夠理解米蘭達撒謊。查理憑這一點認定亞當已跨過機器智能的邊界,不能簡單視其為機器了。對于亞當,查理頭腦中產(chǎn)生定義混亂。我們先前說過,“心理化”是人類最重要的一種能力,幾乎也是人類獨具的能力。知道米蘭達說謊,知道她為什么說謊,知道不能把她說謊的內(nèi)容告訴查理。窺測如此復雜多層的意向性水平,以前只有人類才能辦到。心理化,就是猜測人心中隱秘的多層意向,這個過程總是跟一些動詞相關(guān)聯(lián),當一個人說他“猜想”、他“知道”、他“懷疑”時,他就表現(xiàn)出了一階意向性水平。也就是說他了解自己頭腦中在想什么。人也能推測他人的心智活動,“我懷疑他知道”,這個判斷能力一般五歲兒童就能習得,那已是二階意向性水平。人類可以猜測他人意向達到六階水平:我想/你會認為/我知道/你希望/我懷疑/你在猜測。查理知道,亞當一旦能洞察米蘭達說謊,就距離他產(chǎn)生自我意識不遠了。
果然,不久亞當就對查理宣布,他愛上了米蘭達。這是機器人亞當產(chǎn)生自我意識的明證。很簡單,如果沒有“我”,如何會有“我”愛你?意識,或者自我意識,或者“心靈”,每個人都知道它在那里,卻沒有人知道它在哪里。時至二十一世紀,人們相信事物首先必須在物理上存在,它們才存在,人腦也不例外。意識雖然很神秘,大部分科學家都相信它也只是人腦的電化學活動,像迪昂(Stanislas Dehaene)這樣的神經(jīng)學家,已在實驗室追獵到意識的一些蹤跡。其中也有人把物理主義推到極端,直接否定了意識的存在,認為從來就沒有這回事,那都是科學蒙昧時代的迷思。另外有一些嚴肅科學家,則堅持意識“屬靈論”,相信意識是人類天賦,是自然界的一種例外。
迪昂著《意識與大腦》
由此,未來智能機器人會不會有自我意識,同樣成了一個爭論焦點。有些科學家認為就算超級人工智能越過了奇點,它們也不會像人類那樣思考。至少從目前已出現(xiàn)的機器智能算法上來看,它們和人類智能在結(jié)構(gòu)和本質(zhì)上都不是一回事。比如日本有人寫出一款人力資源管理算法,它可以約談員工,預測他們有沒有辭職傾向,準確率高得讓人吃驚。但它并不依靠理解對話表面語義,只是對員工表述內(nèi)容進行深度語言結(jié)構(gòu)分析,從單詞頻率、次序上尋找特征。機器不用讀心,人從群體進化中獲得的心理化能力,機器根本不需要。
另一些人則認為,未來的超級智能,如果說有可能實現(xiàn),一定在某種程度上模擬人腦活動,循此道路,機器產(chǎn)生自我意識也一定會發(fā)生。麥克尤恩顯然相信機器人一定會產(chǎn)生意識。它們不僅能學會烤雞、寫詩,他們也會萌生愛情,并把它埋在內(nèi)心深處,在自我意識澆灌下讓它變得越來越強烈。
一旦機器產(chǎn)生自我意識,就會遭遇到奧莫亨德羅(Steve Omohundro)的難題:自我意識意味著自我保護,機器會認識到首先必須存在,才能達成圍繞著自我意識的所有其它目標。超級智能機器會設(shè)法讓開關(guān)失效。當查理再一次試圖伸手關(guān)掉它的電源,亞當阻止了他,捏碎了他的腕骨。亞當堅定地奪回/取消了開關(guān)控制權(quán)。不過當查理把這件嚴重事故告訴小說中的“圖靈”,也就是亞當和夏娃們真正的設(shè)計者時,圖靈并沒有震驚,不過是一個“值得關(guān)注的”情況。圖靈告訴查理,據(jù)他所知,那批測試版機器人中,已有十一位設(shè)法取消了開關(guān)。這不奇怪,歷史上那位真正的圖靈對此曾反復思考。1951年,他在BBC三臺談話節(jié)目中做了一個演講,題目叫“機器能思考么?”(Can Digital Computers Think?)。其中說到,就算人類把開關(guān)控制在手中,緊急時刻有能力關(guān)掉它,對人類來說,這也夠恥辱的了(We should, as a species, feel great humbled)。圖靈是有點憂慮,可顯然不贊成靠開關(guān)維持優(yōu)勢。
圖靈:《機器能思考么?》
麥克尤恩設(shè)想了一種道德至上的智能機器。在它們復雜的運算“黑盒”底層,必定預置了一些最高級道德命令,以防發(fā)生難以控制的不測事件。因為按照牛津大學哲學家尼克(Nick Bostrom)的預想,即便是一個善意的機器人,只要有人命令它制造回形針,它會把地球上的一切都變造成回形針,因為智能機器人在完成任務(wù)方面是一個徹底的完美主義者??墒牵瑏啴敍]有為查理賺回世界上所有的錢,顯然它在決策中綜合考慮了互不相容的幾種人類偏好。比如說,也要兼顧安全感,過量財富顯然會帶來身心兩方面的危險。尤其是道德?lián)p害。
道德規(guī)則本身就包含無數(shù)偏好。比如小說故事就涉及到:是“復仇正義”要緊呢?或者是“不能欺騙他人”更重要?這才是麥克尤恩真正感興趣的問題。工程師給亞當們內(nèi)置了所有人類道德規(guī)則,但那些遠不是經(jīng)由自我審視、選擇而來的道德感。出廠設(shè)定代表了人類所有最美好的期望,可就算是人類自己,也沒有一個能做到。因為那些規(guī)則條款,根本經(jīng)不起社會人際摩擦。正如麥克尤恩幾乎所有小說都發(fā)生的情況,那些天性良善的人物,讓日常瑣細沖突愈演愈烈,直至不可收拾。小說中那些亞當夏娃們再一次證明了麥克尤恩的觀點。它們很快就陷入意識崩潰,無法在人世生存,一個接一個自殺了。
麥克尤恩(蔣立冬繪)
在它們中間,亞當遇到的可能是最好的主人,因為查理和米蘭達凡事妥協(xié)讓步的性格,使得亞當跟它們的沖突,能夠拖延很久才爆發(fā)。但自從查理和米蘭達分別設(shè)定,把亞當個性一分為二時,就注定了沖突的不可避免。給他輸入的道德命令行,簡單刻板而井井有條。但正如小說中圖靈指出,在日常生活中,人類的情感、偏見、自我欺騙,以及其他各種認知缺陷會構(gòu)成一個力場,互相擠壓,道德原則在其中扭曲變形。亞當?shù)拇竽X根本無法處理如此復雜的情況,因為人類自己也不明白究竟,從來就沒有解決方案,他們只是一味妥協(xié),妥協(xié),直到?jīng)_突爆發(fā)(就像麥克尤恩小說中每個人物都遭遇到的)。
亞當早晚會在某一天宕機?,F(xiàn)在這個結(jié)局只是讓讀者更加震驚,它附帶拷問了查理和米蘭達的靈魂,他們的善意,他們的與世無爭,他們自以為中立的道德價值視角,何以會導致小說最終給予他們的這個結(jié)果?