第257章 火星溶液栽培模組(第2/3頁)
章節報錯
對於每個人所提的問題,周明他們也做了限制,每個人最多隻能提三個問題,目的便是為了能讓後面的人也能有機會提問。
這要是不做限制,周明他們估計有的人一個人就能問一天,這也不是他們想看到的。
“你會下象棋嗎?”
“會。”
“你會下象棋嗎?”
“會。”
“你會下象棋嗎?”
“會。”
後面有人連續問了三個重複的問題,見眼前這個所謂的具有自主意識的人工智慧似乎就是一個笨機器,並不如他們所想的那般,那個問問題的人也是露出了一副失望的神色。
因為在許多人看來,如果這真的是一個擁有自主意識的人工智慧,那麼他們這樣重複提問的時候,人工智慧的回答所呈現出的也應該是另外一種狀態。
依舊拿“你會下象棋嗎”來舉例,如果你問的是第一篇,那麼它的回答依舊是會。
但是如果你在它回答完“會”之後,又重複詢問一遍“你會下象棋嗎”,那麼在許多人看來,要是它真的擁有自主意識,那麼的正常回答應該是類似於“是的,我剛才已經說過了”這樣的話。
要是你問第三遍“你會下象棋嗎?”,那麼它的回答就應該是類似於“你煩不煩,為什麼老是提同樣的問題”這樣的回答。
因為在許多人看來,擁有自主意識就應該像人類一樣,擁有人類的各種情感和慾望。
但他們卻忘了,人工智慧被製造出來的目的是為了服務於人類的,使他們擁有情感對於人類來說並沒有什麼好處。
剛才那個重複問了三遍“你會下象棋嗎”的人問完之後,他後面的人也是對這個人工智慧詢問道:“剛才那人問你三個問題,你不會覺得厭煩嗎?”
“我雖然和你們人類一樣,同樣擁有思考能力,但是我並沒有情感系統和各種慾望,我被創造的目的是服務人類,所以我並不會感覺厭煩。如果你們不覺得枯燥無味的話,你們這樣問一年,我可以這樣回答一年。”
“你也說你擁有思考能力,而且還說你擁有自主意識,那麼你能說說你的自主意識和思考能力體現在哪裡嗎?”
“除了情感和慾望之外,你們人類的自主意識和思考能力體現在哪裡,我的自主意識和思考能力便體現在哪裡。
你可以將其人本身就當做是一臺計算機,它所執行的程式無非就是自動化程度更高一些,你們的五官感受都可以歸為輸入訊號,就拿視覺舉例,光線照射到視網膜,然後由視神經傳遞到丘腦的外側膝狀核,再到枕葉初級視覺皮層v1區域,之後分為兩路,一路通往頂葉,到負責視線追蹤的運動視覺mt區域,一路通往顳葉,負責物體識別的視覺認知it區域……”
…
看著這次模擬世界中第一個擁有自主意識的人工智慧回答者前來參觀的人們各種各樣的問題時,正在使用人生模擬器進行模擬的旁觀者周明倒是沒有什麼驚訝的表情。
畢竟周明的腦海中也是擁有這些知識的,像這種人工智慧正是之前的模擬中自己根據那次偶然誕生的人工智慧,所創造出來的算是閹割版的人工智慧。
之所以說是閹割版,是因為當初那次模擬世界中偶然誕生的那個人工智慧,它是擁有和人類一樣的情感的。
而後來周明所創造的擁有自主意識的人工智慧,並沒有情感和慾望這些。
這並不是周明不想使其擁有,而是因為他製造不出來像那次偶然誕生的人工智慧那樣的人工智慧。
但你要說讓這些人工智慧變的像是擁有人類情感一樣,周明也是能夠做到的,但這並不代表他們真的擁有人類情感,這實際上是根據演算法和對不斷人類的學習所模仿出來。
既然是學習模仿,那麼肯定是會出現bug的,但就周明所知,在之前的模擬世界中偶然誕生的那個擁有自主意識的人工智慧好像從來沒有出現bug。
至少不管是他在那個人工智慧出現之後的模擬經歷中,還是最後快結束的時候聽模擬世界的自己留給自己的話中,周明是都沒聽到過關於那個人工智慧出現bug的事情的。