「柔情」機器人:人類怎麼對機器人動了真感情


你去過伊拉克塔吉市(Taji, Iraq)嗎?塔吉位於巴格達(Baghdad)以北車程一小時的地方。2013年時,這裏發生了件奇事。塔吉當地有一個美軍基地,泥地上塵土飛揚,混凝土牆壁堅實厚重。一場致命的爆炸過後,一群士兵在如此殘酷的環境下充滿柔情地追悼他們犧牲的戰友,一個機器人。

這名勇敢的英雄被熟知他的人親切地稱為「隆隆」(Bomber)。他總是衝在隊伍前面搜尋敵人埋下的炸彈,在役期間拯救了許多生命。在他的葬禮上,隆隆被佩戴上了兩枚勳章,一枚是著名的紫心勳章(Purple Heart,是美國軍方的榮譽獎章,它標誌著勇敢無畏和自我犧牲精神),另一枚則是銅星勳章(Bronze Star Medal,縮寫為BSM,是授予美利堅合眾國軍中個人的美軍跨軍種通用勳獎,用於表彰「英勇或富有功績的成績或服務」)。隆隆的金屬殘骸也在21響禮炮聲中榮譽下葬。

隆隆是多功能靈活遙控機器人(MARCbots),一種軍用機器人,長得像個玩具卡車,長長的脖子上裝著個照相機。MARCbot價格並不算昂貴,每個約1.9萬美元(1.4萬英鎊),並非難以替代。可是這班士兵與隆隆情誼深厚。隆隆犧牲後,戰友們像悼念心愛的寵物一樣悼念他。

幾年後,此類故事已稱不上什麼奇聞異事。2017年1月,加拿大廣播公司(CBC, Canadian Broadcasting Corporation)的員工為五名郵遞機器人舉行了一場溫馨的退休派對。五位名為拉斯普京(Rasputin)、大錘(Basher)、拿丟丟(Move it or Lose it)、移動迷宮(Maze Mobile)和媽媽咪(Mom)的機器人過去25年裏在公司走廊上來去穿梭,為員工派送信件郵包,偶爾發些可愛的小噪音,時常撞上行人。

派對上有蛋糕、氣球等,還放映著懷舊的告別視頻,員工們甚至給機器人送上親手寫的送別卡,上面寫著「感謝你們讓每一天都充滿回憶」,「嘟!嘟!嘟!」。這些機器人之後會從眾多有意接收他們的博物館中選擇一間安享晚年。

儘管精明的機器人有時被認為搶了人類的飯碗,但機器人的興起也有益處。從可愛笨拙的辦公室機器人到作業嫻熟的工廠機器人,人類總會不自覺地與共事的機器建立感情。他們出問題時我們會覺得難過,我們賦予他們性格特徵,給他們取名字甚至爭論他們的性別。一位在訓的醫療機器人「索菲亞」還被授予了沙特阿拉伯公民身份。

並非所有協作型機器人都造型可愛,有些甚至就是個長方體盒子,既沒有臉不會說話,也談不上人工智能,可為何人類會關心他們?這對我們未來的工作又意味著什麼?

奧斯本(Olivia Osborne)是加州大學洛杉磯分校(University of California, Los Angeles)的一名納米技術科學家,她說:「我的一位同事參與設計了與我共事的攝影機器人塞爾達(Zelda)。我剛開始做這項工作的時候,他對我說『噢,這是個有自己的想法的機器人』。」

塞爾達的職責是斑馬魚胚胎照片的拍攝,而奧斯本則利用照片分析有毒納米顆粒對胚胎正常發育的影響。奧斯本說:「工作間裏就你和機器時,你慢慢就會對它們產生感情,甚至偶爾替它們難過。因為除了電,它們什麼都得不到,不是嗎?」

這些看似不可能的友誼產生的根源是人類天性就傾向於把一切物體人格化,從普通的動植物,到神明、天氣等,乃至無生命物體;淺顯的例子像是政客有時被比作辣椒,更有甚者則是社交網站上北極熊寵溺小狗視頻的迅速躥紅。

在一些情況下,我們甚至不吝於給石頭賦予人性。2016 年的一項實驗獲得了搞笑諾貝爾獎(IgNobel Prizes,是對諾貝爾獎的有趣模仿,其名稱來自Ignoble「不名譽的」和Nobel Prize「諾貝爾獎」的結合,是一個授予無聊或是奇特科學成果的獎項);實驗中,研究人員向一些學生展示三塊石頭的照片,並請他們試著想像並描述這三塊石頭各自的性格特徵。結果出乎研究者預料的是,受訪者全都順利給出了答案,比如「這塊像個紐約富商,有錢又能言善道,可能是個喜歡搞滑頭的人」或者「那塊像個嬉皮士」之類的。

當對象是機器人時,這種行為就上升到了新高度。很多時候,我們不僅將機器人當作人,還會對他們產生共情。去年有段時間,網絡輿論關注的熱點之一是一個 「自殺」的安保機器人,它在美國華盛頓特區喬治城一家購物中心的水池裏「自溺」身亡了。這位騎士視界(Knightscope)公司生產製造的安保機器人史蒂夫(Steve)長得神似電影《神秘博士》(Doctor Who)裏的機器人戴立克(Dalek)和《星球大戰》(Star Wars)裏機器人R2-D2的結合體。當時它掉下台階後,情況危殆,同事們立即衝過去搭救,而這戲劇性的一幕被圍觀群眾拍了下來。

事實上,人們對機器人的同理心與對待同胞的感情非常類似。2013年,德國杜伊斯堡埃森大學(University of Duisburg-Essen)的科學家們也做了個實驗:他們請志願者們觀看人們對人類/機器人/無生命物體的親密行為(如擁抱、撫摸)和暴力行為(如把受害者的「頭」放入塑料袋,掐住他/它們的脖子等),並對志願者進行顱部掃描。

結果顯示,被試們在看到機器人受折磨時,大腦活躍的區域跟看到人類被傷害時是一樣的,只是活躍程度要稍微輕一些。這些科學家們開展的另一項研究也表明,我們看到機器人受傷害時會產生明顯的身體反應。

然而,跳脫出簡單的同理心,若是真要與機器人同事成為朋友,得至少滿足以下三個條件其中之一。首個條件是動機。

縱觀人類歷史,萬事萬物人類都會給他們命個人名——古代的真經、劍器、船隻等,及更近現代的汽車、風力機、機器人等等。英國諾丁漢大學研究命名的學者麥克盧爾(Peter McClure)說:「之所以命名大多源於人類希望與那些難以操控、變化莫測的大型機器建立關係,給物體授名或是取個暱稱是為了能更好地控制它們,有些預防危險的意味。」

以英文單詞「gun」(槍)為例,該詞的來歷就是如此。12世紀時,「Gunnild」(貢希爾德)是英格蘭地區常見的女性名字,它在古北歐語中意為「戰爭」。而幾百年後,「Lady Gunnilda」(根尼爾達夫人)這個名字被用來指稱一種保衛皇室溫莎城堡的機械弩。這種用法其後進一步發展,被省略成了gun,指非常危險且難以預料的手持火器。

麥克盧爾發現,人們大多會給機器取個女性名字,興許有性別歧視的緣由。他說,「我認為是因為男性想要控制女性」。這或許能解釋通就連當今看著像個大怪物、體型巨大長達150米、有著鋒利斗齒的隧道挖掘機都有個女性名字。英國耗資148億英鎊(196億美元)的橫貫鐵路項目中,負責挖掘工作的是艾達(Ada)、菲莉斯(Phyllis)、維多利亞(Victoria)、伊麗莎白(Elizabeth)、瑪麗(Mary)、索菲亞(Sophia)、潔西卡(Jessica)和埃莉(Ellie),通通都是女性名。

人類將機器人格化的傾向若是發展到極致,則非常可能導致人與機器產生真切的情感聯結,就如伊拉克的隆隆和他的戰友們。倫敦大學學院(University College London)的心理學家哈里斯(Lasana Harris)說:「人們常將自己代入物品的頭腦中,為它們賦予人性,把機器人等物品當做是人。而假使某個機器人是你生命不可或缺的一部分,這樣做也就不足為奇了。」

人類往往會對一同經歷過創傷的同伴產生強烈的情感聯結,對人如此,對機器人也不例外。像悼念隆隆那樣,哀悼逝去的軍用機器同伴並不是個案。製造商甚至收到過一盒機器人殘骸,裏面附了張紙條問道,「你們還能修好他嗎?」

另一個常見的動機則是孤獨。在人類的進化歷程中,與其他人的聯結對生存至關重要。有一些說法認為,遭遇社會隔離或排斥(譬如分手)後出現的那種肉體上的痛苦正是我們的身體在竭盡所能地告訴我們「要交朋友,維持情誼。」

如果這種需求在同胞中落了空,那我們的社會需求則要通過別的途徑來滿足。它可能是荒島上的一個排球,也可能是空蕩蕩的實驗室裏的一台機器人。《連線》(Wired)雜誌刊登的一篇報道裏說,一些人會給獨身親友購買掃地機器人給他們作伴。而一位獨居的退休教授就把她的掃地機器人倫巴(Roomba)當作同伴。

最後一點是,如果機器人與人類之間有明顯的外形或行為上的相似之處,我們的想像就能延續,比如長得像人臉的車前燈和車頭散熱器,又或者往桌子上擺東西的機器人管家,它屢試屢敗又屢敗屢試。

心理學家哈里斯說:「如果一件物體的行為難以預測,譬如一輛啟動不了的汽車,又或者是過分活躍,看上去像是有自發行為或意識,它被人格化的機率就更高了。而倘若其他類似的物品極少出現同樣的行為或它在不同的情境下被觀察到有這樣的行為,人類就更會將其人格化了。」

上文中被退休教授人格化的掃地機器人倫巴就是案例之一。研究表明,它雖然只是個發出"嘟嘟"聲音的黑白色圓盤,但很容易被賦予人性。在2010年的一項研究中,研究人員請一群演員扮演性格迥異的吸塵器,他們中有的大膽,有的粗心。

而科學家們參考錄下的表演視頻來編寫掃地機器人的程序,讓機器人們也具備這些性格特徵,例如性格安靜的機器人髮出噪聲較小。之後科學家請了一群荷蘭籍被試來猜測每個機器人的性格,而結果是他們居然猜得很凖。

當一件物品被賦予了人性,我們與它的關係就跟與其他人類的關係非常相近,而潛在的風險也隨之而來。

首先,我們容易產生同樣的心理偏見。有研究發現,比起行為毫無舛錯的機器人,人們似乎覺得那些犯過錯誤的更討喜一點。例如之前的一項研究中,當依照研究人員指示完成作業時,那些違背常識、言語奇怪或發生故障的機器人反而更招被試者的喜愛。

在英國廣播公司出品的紀錄片結尾,中國企業阿里巴巴公司打包中心的一名外來務工者李妍(音譯)是這樣形容她對機器人工友的感覺的:「我覺得機器人就跟人一樣,也會犯錯誤也會有感情,它們需要人來關注它、監管它。」這或許能解釋為何人們更偏愛犯錯誤的機器人。

可如果機器人同事搞砸了事情或是工作起來一團糟的話,人類與他們的親密關係就不是什麼好事情。目前很多醫院開始聘請機器人護士給患者送藥。這些護士雖說只是架在輪子上的盒子,但它們行事非常像人了。他們能夠自己開門、按電梯,被卡住時還會求救。但若他們犯了錯誤,給病人送錯了藥呢?

讓我們再試想一下,如果拆彈機器人與士兵間感情很好,那也會有隱患。畢竟,軍事歷史上英雄在槍林彈雨中衝鋒陷陣或是拆除爆炸裝置時為了搭救朋友而犧牲自己的故事比比皆是。

如果士兵把機器人戰友當成是人,就會覺得機器人也該受到同樣的保護,應免受傷害。然而,與"人性化"相反的「滅絶人性」已經在千百年來用作是暴力對待敵軍的理由。例如,在盧旺達種族大屠殺期間,慘遭滅族的部落人民就是被當成動物地對待。

目前也有一些關於人類是否會愛上機器人的討論,這也隨之引發了一系列棘手的道德問題。歐盟近期也在探討,是否該把那些擁有人工智能的、技術最複雜的機器人當成「電子人」,並賦予一定的人權。

綜合來看,人類與機器人同事結誼是一樁好事。研究者奧斯本也可以選擇人來擔任自己的實驗室助手,但她更喜歡跟塞爾達工作,因為他倆不會起爭執。「有時候,我真的覺得太棒了,我們就是夢之隊」。機器人一面有足夠的人類特徵,奧斯本對他產生了感情;一面則有一些超人類的特質,甚至發現一些奧斯本沒意識到的錯誤。

奧斯本舉例說:「偶爾我給他指示說,『我想用某種(光的)波長照相,比方說紅色光波',塞爾達會說'嗯……我猜,你想用的這個波長是否是444納米?』然後我發現我就是想用444納米!若不是他,我可能會用遍所有波長還沒意識到問題究竟出在哪兒。人類要知道,機器人可是非常聰明的。」

隨著機器人被投入到人類的各種工作場合,人們會發現他們可以是重要的盟友,作為同伴或者同事都好處多多,但政治方面倒不一定。隆隆的葬禮是機器人界的第一個,但肯定不是最後一個。願逝者安息。

(BBC)扎利亞·高威特 (Zaria Gorvett)
激賞明鏡 1
激賞明鏡 2
比特幣激賞明鏡

3KAXCTLxmWrMSjsP3TereGszxKeLavNtD2
激賞操作及常見問題排除
訂閱明鏡家族電視台

留言