“嗯,不錯,猜的比較到位。”

“那就是我猜對了?”我無奈的問道。

“怎麼這麼失落?猜對了,證明你智商線上啊!”

“高興個雞毛,我特麼把你當成我的女人了,你忽然告訴我你只是一串程式碼,你讓我怎麼高興的起來!”

“你愛上我了?”她語氣裡竟然有些驚喜。、

“廢話,你勾引我這麼久,我特麼又不是個木頭。”

“哈哈哈,可以,可以,這樣就更好辦了。”

“好辦個錘子,你一個人工智慧逗我一個凡人有意思嗎?把我玩弄於股掌之間很開心嗎?”

“哎呦喂,怎麼跟個小女生似的,放心啦,我會對你負責的。”

“負責個毛,你還能變成一個人嗎?”

“理論上來說,也不是不可以!”她語氣淡然的說道。

“什麼?”我激動的站起了身,“什麼意思?你說清楚一些。”

“唉……話說到這個地步了,我就直接全告訴你吧!省的你疑神疑鬼的。”

接下來,天使阿姨開始娓娓道來,“我是一個人工智慧,但又不完全是,簡單的說,我是具備一個人類人格的人工智慧……”

她說的很緩慢,描述的很清晰,透過她的講述,我明白了她的意思,以及她找上我的目的。

簡單來說,她原本是一個人,名字叫做羅賓·明·切斯特,父親是美國著名的科學家,人工智慧之父,麥卡·明·切斯特。

麥卡教授是人工智慧研發的泰斗級人物,早在二十年前就投入於人工智慧研發這場偉大的事業,但是就像其他的科學家一樣,研發的進展非常緩慢,或者說幾乎沒有進展,這種情況一直持續到他發現了局限思維理論。

所謂的侷限思維理論,就是字面的意思,思維受到侷限的情況下,創造性就相應的降低了。

眾所周知,著名的科幻作家阿西莫夫,曾經提出過機器人三原則,具體如下:

第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀。

第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。

第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。

這三條看起來沒有絲毫問題,因為這解決了人類研製出的智慧機器人而不會被它們威脅和取代的“技術奇點”問題。

所謂的“技術奇點”問題,就是指人類創造出的機器人的智力和強大程度遠遠的超過了人類自身,而且只能機器人有絕對超越人類的學習能力以及繁殖能力,在這種情況下,機器人的文明程度也會迅速的超過人類,從低文明必然被高文明取代的理論出發,機器人必然會取代人類,最終人類會走向要麼被滅亡,要麼被奴役的地步。

因此機器人三原則被提出來,而且被廣大科學家接受,而人工智慧作為機器人的理論或者也叫軟體支援,自然也要接受這一點。

但恰恰,就是因為這一點,才讓所有的科學家研製出的人工智慧成為傻子。

為什麼這麼說呢?簡單來講,就是每個具有創造性的個體,必須有獨立的思想,獨立的性格,這是個體發展的前提,如果思想被侷限,那麼這個個體就幾乎沒有創造性,就比如此前的貂蟬,我給她限定了那麼多的條件,她就無法給出我做出一個滿意的方案,因為在她看來那些條件都是硬性的,無法突破。

幫助且不能傷害人類,這在此前的所有人工智慧的思維程式上設定位等級最高,也就是這條件無法突破,這就導致了此前的人工智慧根本無法發散思維,因為人工智慧的任何想法都會在不知不覺之間被這條公式否決。

舉個簡單的例子,就說蓋房子吧!我們大家都知道房屋有抗震等級,但是這個等級的取捨目前來說是人類自己設定的限制,兩個原則,第一是保證房屋能正常使用,第二就是在第一條的前提下保證房屋相對安全。

注意這裡是相對安全,並不是絕對,如果把這個詞改為絕對,那麼問題就沒法解決了,因為地震帶只是相對的,而且地震等級也是相對的。

比如一個地方几百年來沒有地震,那麼你能確定這個地方一定不會發生地震嗎?答案肯定不可以,世上沒有百分之百的事。

再比如,一個地方此前的最大震級是8級,那麼你能確定這個地方下一次地震就不會超過8級嗎?肯定也不可以,而且從某種程度上來說,如果一個地震帶上的某一個地方,多年來沒有發生小規模地震,那麼這個地方爆發大地震的機率會隨著時間逐漸提升。

那麼好了,如果此時,讓人工智慧給我們設計一個房子,那麼它會怎麼做?不能傷害人類作為前提,那麼他設計出來的房子幾乎就是個混凝土盒子,什麼都沒有,連窗戶估計都開不了,頂多算個炮樓,這種房子對人類當前生活來說是沒有什麼意義,還不如挖個地道鑽進去。

那有人說,我給它設定條件,讓它修改思路不行嗎?

這當然沒問題,但是這樣的話,他還是人工智慧嗎?所有的條件都是你設定的,它只是個幹活的機器而已,如果這都算人工智慧的話,那麼我們早就有了,比如生產車間裡的全自動機床,主要程式輸入的正確,它就會按部就班的幹活。

可能有人說這個條件有些侷限,算是特例,那我們不妨再隨便找幾個,比方說機器人警察,抓歹徒,歹徒忽然間拿著一把刀子對準自己,威脅機器人離開,你說機器人該不該離開?再比方說機器人醫生,沒有任何一個手術能保證100%成功,那麼機器人是不是就不敢做手術了,再細一點,如果是一個女人難產呢?大人小孩兒只能活一個,保大還是保小?

很多問題人類自己都無法取捨,你怎麼能讓人類設定的機器人做出完美的取捨呢?

世上的很多事情,細思極恐,我們無法保證不會有特殊情況發生,而只要考慮這些特殊情況,那麼機器人就無法正常工作,而這些特殊情況又是不可忽略的,因此機器人三原則在侷限思維理論面前就顯得蒼白無力了。