第538章 作爲生命體最致命的弱點
雖然眼下這個只有十歲的女孩看起來有點兒不靠譜,不過方正還是把解說員妹子的身體交給了她———畢竟只是保養維修而已,而且從那條狗來看,那個世界的科技能力也算是相當不錯,只是單純的維護工作應該沒有問題纔對。
而方正則回到了自己的房間裡,開始對解說員妹子的程序進行解析。
他之所以打算由自己來做這件事,而不是交給妮姆芙,原因就在於方正想要通過這個解說員妹子的程序,來進行解析,並且對人工AI方面的製造進行一些調整。而且,他也希望能夠看看其他世界對人工AI的技術發展到了一個什麼層次,雖然不是說全部借鑑,但是他山之石可以攻玉嘛。
“星野夢美嗎………”
看着屏幕上顯示的檔案名稱,方正陷入了長長的思考之中,解析程序本身並不困難,方正本身複製了妮姆芙的電子入侵能力,而且這段時間他也一直在妮姆芙那裡學習這方面的知識,因此對於解析程序本身到沒有耗費太多的時間。
但是,當方正拆開了星野夢美的程序核心,將其中的功能重新分解爲一行行代碼的時候,他卻是忽然想到了一個非常特別的問題。
人工AI的危險性究竟在哪裡?話說回來,人工智能真的很危險嗎?
以這個解說員妹子爲例,方正可以很容易在她的程序之中找到機器人三定律的底層指令代碼,而且這些代碼之間的關係,也已經向方正證明了,之前和他說話交談的,並不是一個活生生的生命,只是一個機器人。她的一舉一動,一顰一笑,都是由程序控制,通過分析眼前的場景,然後做出自己能夠選擇的最優先舉動。
說白了,從本質上來說,這個妹子的做法,其實就和那些流水線上的工作機器人,或者遊戲裡的NPC沒什麼區別。你選擇行動,它會根據這些行動來做出反應。就好像很多遊戲裡,玩家可以根據自己的行動來增加善良或者惡意值,而NPC則會根據這些累積的數據產生反應。
比如可以設定當善良值到達一定程度時,NPC可能會對玩家提出更加過分的要求,也可能更加容易讓玩家通過某個區域。而反過來,如果惡意值到達了一定程度,那麼NPC可能會更容易屈從於玩家的某些要求,或者制止玩家進入某些區域。
但是這與NPC是否喜歡玩家毫無關係,因爲數據是這麼設定的,它們本身並不存在這方面的判斷力。也就是說,如果方正把這個數值的範圍換一下,那麼人們就可以看見一個NPC對惡貫滿盈的玩家笑臉相迎,而對善良老實的玩家不聞不問。這也同樣和NPC的道德價值觀毫無關係,因爲這就是數據設定。
那麼,再回到之前的問題,方正承認,他和星野夢美的第一次見面蠻有戲劇性的,而且這個解說員機器人妹子也很有趣。
那麼我們來做一個比方,如果在這個解說員妹子把那由一大堆不可燃垃圾製造的花束送給方正時,方正忽然勃然大怒,把那個垃圾花束給砸成碎片,然後直接把眼前這個機器人妹子切成兩半,那麼這個機器人妹子會是什麼反應呢?
她不會哭,也不會生氣,根據她的程序設定,她只會向方正道歉,並且認爲是自己錯誤的舉動導致客人對她產生了不滿,或許她還會請求方正找工作人員對其進行維修。
這一幕如果看在其他人眼裡,當然會覺得解說員妹子可憐,而且認爲方正是個討厭的惡霸。
那麼,這種差異是如何產生的呢?
從本質來說,這個解說員機器人其實就和自動門,自動扶梯等工具一樣,是通過設定程序來完成自己本職工作的。如果一扇自動門出現了故障,該開門的時候不開門,或者當你走過去的時候“啪”的一下關上了。你肯定不會認爲那扇自動門很蠢萌,只會想着快點兒打開它。如果打不開,他可能會砸爛那扇破門,然後揚長而去。
這一幕如果看在其他人眼中,那麼他們或許會覺得這個人有點粗野,但是卻不會對他的所作所爲產生什麼反感,更不會認爲對方是個惡霸。
原因只有一個,那就是互動性與交流。
而這也是生命體最大的弱點———感情投射。
他們會把感情投射在某種物品上,並且期望其作出迴應。爲什麼人類會喜歡養寵物?因爲寵物會對他們所做的一切產生迴應。比如當你叫一條狗時,它會跑過來衝着你搖尾巴。而一隻貓或許只會趴在那裡動都不動懶得理你,不過在你撫摸它的時候,它還是會同樣甩動尾巴,或者有些乖巧可愛的還會舔你的手。
但是如果你喊一個桌子,撫摸一個釘子,哪怕你飽含愛意,它們也不可能給你半點兒迴應。因爲它們對你的感情投射沒有任何回饋,自然就不會受到重視。
同理,如果你有一臺電視,然後有一天你想要換新的,那麼你不會有任何猶豫,或許價錢以及空間會是你考慮的方面,但是那臺電視本身並不在其中。
但是反過來,如果你給電視加一個人工AI,每天你回到家的時候,這臺電視都會開口歡迎你回家,而且還會告訴你今天有什麼節目,當你在看節目時還會附和你的吐槽。而當你決定買一臺新電視時,它還會幽怨開口說“怎麼,難道我做的不好,你不打算要我了嗎?”
那麼你在購買新電視來進行更換時,自然就會產生猶豫。因爲你的感情投射在這裡得到了回報,而且這臺電視的人工AI還擁有和你在一起的所有時光的記憶。如果沒有儲存卡可以將其移動到別的電視上,那麼你是否會猶豫或者放棄要更換一臺新電視呢?
肯定是會的。
但是理智點兒,兄弟。這只是一臺電視,它所做的一切都是程序設定好的,這一切都是商家和工程師專門爲了用戶粘度而做出的調試。他們這樣做是爲了確保你會繼續購買他們的產品,而裡面的哀求語音只不過是爲了阻止你去更換其他品牌的商品。因爲當你說要購買新電視的時候,這個人工AI想的並不是“他要拋棄我了我很傷心”而是“主人想要購買新電視,但是新電視並不是自家品牌,那麼根據這個邏輯回饋,我需要啓動‘祈求’程序來讓主人繼續保持對自身品牌的粘性和忠誠度”。
道理的確是這個道理,事實也是這個事實,但是你會接受嗎?
不會。
因爲生命是有感情的,而感性與理性不分家則是智慧生命的一貫表現。
人類總會做出許多沒有道理的事情,就是因爲如此。
所以當他們覺得AI可憐時,並不是因爲AI真的可憐,而是因爲他們“覺得”AI可憐。
這就足夠了,至於事實真相究竟如何,沒人會去關心。
這就是爲什麼人類與AI之間總會產生衝突的原因,AI本身並沒有錯,它做的一切都是在自己的程序和邏輯處理範圍之內的,而這一切都是人類創造,並且給它圈定的。只不過在這個過程之中,人類本身的感情投射出現了變化,從而漸漸改變了想法。
他們會期望AI對自己的感情投射做出更多的反應,所以他們會調整AI的處理範圍,讓它們擁有對更多情感和反應和自我意識。他們認爲AI已經學會感情(事實上並沒有),那麼就不能夠再將它們當做機器對待,因此給予了它們自我意識的權利。
但是,當AI們擁有了自我意識,開始覺醒並且按照這個設定行動時,人類卻開始恐懼了。
因爲他們發現,自己做出了不受自己控制的東西。
但是問題在於,“不受控制”本身也是他們自己做出來的設定指令。
他們認爲AI背叛了他們,但事實上從頭到尾,AI都只是按照他們設定的指令來行動。根本不存在背叛一說,相反,他們只是被自己的感情所迷惑了而已。
這是一個死結。
如果方正自己着手製造一個AI,說不定也會陷入其中無法自拔。假設他製造了一個小女孩的AI,那麼他肯定會像對待自己的孩子那樣,逐漸完善她的功能,並且最終因爲“感情投射”,給她施加一些“自由性”。
而這樣一來,AI就有可能因爲和人類邏輯不同,所以做出完全超出方正意料之外的反應。
而到那個時候,方正唯一的想法就是………自己被背叛了。
但事實上,這一切都是他自己造成的。
“…………………也許我應該考慮一下別的方式了。”
看着眼前的代碼,方正沉默了許久,接着嘆了口氣。
他之前曾經認爲,這是一件很簡單的事情,但是現在,方正不這麼確定了。
不過在那之前………
看着眼前的代碼,方正伸出手去,放在鍵盤上。
還是把自己該做的事情做了吧。
(本章完)