2010/03/26

i read 「機器人定律」

機器人定律有三條,是由科幻小說家以撒‧阿西莫夫在他於1942年發表的作品"Runaround"中第一次明確提出,並且成為他的很多小說,包含基地系列小說中機器人的行為準則和故事發展的線索。在此基礎上,晚年的阿西莫夫在小說《機器人與帝國》中設立了完全超越三定律的第四條機器人定律,即「零規則」。

******
零規則:
機器人不得傷害人類,或任人類受到傷害而無所作為

第一定律:
機器人不得傷害人,或任人受到傷害而無所作為;
1. cannot under any circumstance harm another human being. must provide help for humans in dire needs.

第二定律:
機器人應服從人的一切命令,但命令與第 一定律相抵觸時例外;
2. cannot disobey a direct human order as long as it is not in violation of law 1.

第三定律:
機器人必須保護自己的存在,但不得與第一、第二定律相抵觸。
3. protect its own existance as long as it does not violate law 1 and 2.
******

零規則在第一定律之上,意味着,
為了保存整體的人類,可放棄個體人類。

對此,我很討厭,因為我從來不認為人類這個物種有必須傳承下去的理由。

至於有言所謂圖靈測試不準確,根本是西方人類對"intelligence"的理解太過淺薄,妄自尊大,以為人類就是世界的主宰,以人類作為"intelligence"的標準。殊不知,萬物皆有靈!

圖靈測試本就是個笑話,可笑竟還有人為此孜孜不倦。最終出品,依然只會是一台電腦,只不過編程更為精密罷了。老實說,找個稍微有想像力一些的人、對人情世故多些了解的人、口齒伶俐些的人,不難設想出各類情節,然後擬出一堆適用答案,資料庫中沒有提及的,便直言不知,又有何不似「人」之處?更別說只要能加入模糊處理的操作程式,恐怕機器比某些性情古怪的人更像人。既然能通過圖靈測試,就算這機器模糊了那四條「機器人定律」又如何?不是說這機器能像人一般思考嗎?那,跟人有何分別?「人」在怕甚麼?別忘了人類中也有好人壞人啊!

說到底,還是那句老話說得明白,「非我族類,其心必異」。然,別說異族,縱親如兄弟,也可鬩於門牆。

大多數「人」,還是太愚昧。

source:
〈科幻小說的最高成就,是為我們提供一種新的倫理和法理〉,书友100213224323709。

〈機器人三大定律〉,"Dreamcolor's Cote"(《夢色窩居 - 無聊豬圈》)。
******
機器人三定律來自阿西莫夫的名著《我,機器人》("I, Robot")。其內容是:一、機器人不得傷人,或任人受傷而袖手旁觀;二、除非違背第一定律,機器人必須服從人的命令; 三、除非違背第一及第二定律,機器人必須保護自己。

在形式上,機器人三定律有著數學公式般的美感,簡潔、鮮明,而且前後邏輯環環相扣,具有瞬間揭示"從屬"關係的奇妙魅力。但實際上其內部隱藏著近乎不可調和的矛盾,不過在fans看來,這種"漏洞"其實不是漏洞,而是從根本上展現了機器人 (甚至人)迷失於"存在"、"意義"等迷宮中的巨大悲劇。
******
在此基礎上,晚年的阿西莫夫在小說《機器人與帝國》中設立了完全超越三定律的第四條機器人定律,即"零規則":機器人不得傷害人類,或坐視人類受到傷害而 袖手旁觀。

乍看起來這跟第一定律沒有分別,但這正是"零規則"的微妙之處---它把第一定律中"個體的人"(a human)換成了廣義的 集合概念:"人類"(humanity)。也就是說,在面臨兩個潛在值的情況下,機器人可以選擇犧牲個體、成全人類。
******

〈對機器人三大定律的思考〉,長鋏。
******
三大定律無疑是機器人倫理學領域的聖經,以此規則演繹創造的科幻小說難以計數。但它即便不作任何歸謬式更改,它的內部其實也埋藏著自我毀滅的種子。比如第 一定律,機器人不得傷人,或任人受傷而袖手旁觀。假如兩人互相鬥毆,機器人應當選擇幫誰呢?加入任一方都違反第一條前半部分,不加入卻又違反第一條後半部 分。阿翁為了解決這個問題,對此定律作了修正,他提出“第一定律潛在值”(first law potential)的概念,意即在智慧機器人的“正子腦” 中,第一定律可能引發兩種潛在的選擇,而哪一種選擇的結果更好、成功率更大,哪一種選擇就會勝出,這一點有點類似於達爾文神經主義。這樣一來,女孩子常喜歡問的“我與你媽掉入河中你先救誰”的史上最難問題得以解決,機器人給出的答案是“救你”!因為你更年輕健壯,把你救上岸的可能性較大。於是在《我,機器 人》中,我們看到這樣發人深思的鏡頭,潛入水中的機器人救出了“威爾•史密斯”,卻放棄了小女孩。因為前者有45%的生存幾率,而在另一輛下沉更快的車中,小女孩的生存幾率只有11%。顯然,這是有違天理人情的。

三大定律內部隱藏的不可調和的矛盾還表現在名詞性概念的定義上。

要遵循第一定律,首先得明白“什麼是人!”。事實上,這是一個連柏拉圖都沒能弄清楚的問題,中國古代的哲學家把這個問題導向無趣的虛無主義,有的人陷入白馬非馬的邏輯悖論中難以自拔。

人類在哲學上可能難以觸摸到“人”的本質,但在生活中並不存在概念困境。這正是由人腦的模糊性特點所決定的。一個元素a和一個集合A的關係,不是絕對的 “屬於”或“不屬於”的關係,而需用考慮它屬於集合A的程度是多少,人類正是通過 “隸屬度”模糊數學的集合概念,輕易地解決了“比光頭多1根頭髮的是禿子,比禿子多N根頭髮仍是禿子”的悖謬。但以布林邏輯運算為核心的機器智慧能做到 嗎?或許,人類為了讓機器人更人性化、在日常生活中的工作更具靈活性,可能會引入模糊處理的操作程式。但問題總是相伴而生,既然它都已經模糊處理了,它未 嘗不會在“三大定律”上也進行模糊處理,把它該盡的義務給馬賽克掉呢?

首先,光資訊無法教會機器人明白“什麼是人”。人類很早以前就發現,外形是會騙人的。仿真機器人、克隆人、全息三維圖像不光能令機器人冒煙,也會令真正的人類抓狂。

再者,記憶資訊無法幫助機器人判別“什麼是人”,因為記憶是能夠複製的。真假美猴王的故事深刻地教育了唐僧,念緊箍咒只能顯得你很低級白吃。如來佛能區別大聖與獼猴,可惜機器人中沒有如來佛。

最高級的判別方式無疑是圖靈測試。且不說這一方法在操作上具有時間上的不可行性,其實,機器人通過圖靈測試已經是指日可待的事。這裏面還有一個有趣的悖 論,機器人若自己已經通過圖靈測試,它就已經跨入人的行列,它何必還遵循該死的“緊箍咒”三大定律呢。更可怕的是,不排除有很多無辜的人類,由於發神經或 先天性處於邊緣智力的緣故而通不過圖靈測試,這樣一來,已經通過圖靈測試的機器人是不是也會產生一種道德上的優越感而命令人類服從三大定律呢。如此看來, 以簡潔明瞭、感性聞名於世的圖靈測試的危險性絕不亞於以簡潔明瞭、理性而彪炳史冊的阿西莫夫三大定律。

最後,鑒於第三定律中提到“絕不能傷害自己”,問題又來了:什麼是自己?

人類很早就明白,概念的自指容易導致大腦當機。只給那些不給自己理髮的理髮師如何才能給自己理髮這樣的問題已經讓N個哲學家瘋掉了,但生活中的普通人從來 沒有這樣的煩惱。因為他們明白:珍愛生命,就應遠離國足與無窮迴圈。

當毒蛇咬了自己手指,果斷砍掉這截手指才能保住小命。這是一個很淺顯的道理。當腐女在家看電視把腿爛掉,換一條合金納米材料複合式輕型假肢才是正經事。我 還是我,不會因為丟掉一部分而喪失整個的我。但丟掉N部分呢?我家祖傳一把斧子,我爺爺換掉了它的斧頭,我爸爸換掉了它的斧柄,我繼承的還是那把號稱是皇 帝親賜的斧子嗎?無聊!斧子是斧子,人是人。斧子沒有記憶,人有!斧子沒有自我意識,人有。但,機器人呢?機器人有嗎?

從三大定律來看,如果機器人沒有自我意識,三大定律就不存在、自我解體了。機器人當然有。既然機器人可以有自我意識,那麼不能以是否具有自我意識來判定是 否是“人”,當然,小狗也有自我意識。

好的,機器人有自我意識,但它能明白剜骨療傷這樣的道理嗎?“剜骨”與“截肢”無疑是“自我傷害”,但這種自我傷害正是為了保證整體的我不受傷害。程式師 很容易讓機器人明白,用螺絲刀扭下一條金屬胳膊是無害的,甚至把身體的各個部件拆下來更新換代,也是有益的,這叫“新陳代謝”,即便是全身大翻修也是無關 緊要,重要的是晶片,保管了它的記憶、智慧程式及情感模組的晶片才是最重要的。

但是,機器人的晶片與人類的記憶還是有著天然差別,機器人在它的使用過程中會不斷的自動更新,下載補丁,更新後的它還是從前的它嗎?人類並不在乎這個,人類只關心機器人在工作中好使。但機器人在乎,曾經有一個機器人在更換它的下肢時對護士機器人產生了好感,人類發現了這種大逆不道的情感萌發,給它安裝了愛 情閹割補丁。於是,它心如止水地開始了新的生活。問題是,前面我們已經肯定了機器人有自我意識,自我意識的覺醒無疑會讓它保護原來的自我,它會心甘情願地任人閹割嗎?

當然會。樂觀主義者說。即使是人類,甘情願地任人閹割的也大有人在!

認識你自己。

沒准,機器哲學家54687JH在2038年的一天,突然產生了這個問題。
******


========
必將毀滅
sap 26.03.2010

沒有留言: