當前位置: UU看書 > 科幻 > 黑科技:開局攻克I5晶片最新章節列表 > 第三百一十九章 機器人
選擇背景顏色: 選擇字體: 選擇字體大小:

第三百一十九章 機器人

當陳淵所到達其他星球之後也是開始他說的一直在遵循的計劃。

陳淵的想法很簡單,那就是他一直都在想這一件事首先不僅僅是在這裡重新建立一個新的生活點,還有一點也很重要,那就是透過這次他已經看出來了,人類的未來或許還需要改變。

但說只是基因工程還並不完美,因為你只要不是刀槍不不入水火不侵的話,那你就還一定是有弱點的。

所以以後遇到了危險人類還是不能親自上。

陳淵現在的想法是他能不能去製作出一個可以代替人的工作的機器人。

雖然不一定能夠成功,但也總比沒有強不是嗎?

而且陳淵也知道人類在某些方面還是很缺乏進取心的,如果能夠擁有這麼一個工作機器人的話,或許會給人類一個更好的未來。

當然,這個工作機器人的構造是非常復雜的。

陳淵所要做的就是將這個工作機器人的構造給記錄下來,然後透過各種方式去製作這個機器人。

陳淵現在所掌握的技術就是一種叫做'光腦'的技術。

這是一個相對來說十分高階的技術,它不僅僅能夠將目標的思維意識傳遞回來,更能讓人類的思維模組進行運算。

不過這樣做也是有著風險的,一旦失敗,那人類的大腦也就真的被破壞掉了。

陳淵不怕死,因為他早晚都會有這麼一天。

但他卻無法接受一個人類被毀滅掉的畫面,而這也是他為什麼一直沒有選擇進行這個工作的原因。

不過現在陳淵已經有了一個新的打算,那就是他準備用自己所擁有的這種特殊的光腦,來幫助人類創造一種全新的生活體系。

當然這是有前提的。

那就是陳淵必須要找到合適的載體和裝置才行。

不然的話,就算是這種光腦再怎麼厲害,也無法將人類的身體和思維給轉換過來。

而這種載體和裝置又要從哪裡得來呢?

當然是人類自己去尋找。

但這個世界實在是太小了,這個世界上除了人類之外根本就沒有任何的生命體。

想要找到這樣的生物載體,談何容易啊?

但現在陳淵有一種預感,他相信他一定能夠找到。

不過就現在來說,這些已經不重要了。

當下,陳淵最要緊的還是趕緊想辦法研究出智慧智慧機器人的核心才是重點。

這個過程必然是不簡單的,說實話,就算是陳淵也沒有完全的把握。

但是魯劍他們卻非常的看好。

可是陳淵內心也一時間不知道該說些什麼。

實際上是不知道做些什麼才對,

在召集眾人所展開相關討論時,各專家也都提出了相關的意見。

“所謂的機器人,最重要的是邏輯分析和推理能力,並且能夠預測行為所導致的後果,以判斷人類下達的指令是否和任何一條定律相悖。

也就是說,我們必須把人類思考行動的每一步,用邏輯演算法清晰地描述出來,並且這套演算法不可以存在任何矛盾,把這樣邏輯演算法輸入到機器人系統當中,這樣機器人才能按照這套演算法進行相應的人類活動。但是人類的活動千變萬化,而且我們有所謂的直覺、第六感,這種判斷其實是有一定的邏輯依據,但目前我們都很難用演算法卻一一描述出來。”

“舉一個人類思考簡單的例子,選擇一家餐廳吃飯,我們會考慮距離、食物味道、環境、停車位、候餐時間等因素。如果我們將其變成一套可以讓機器人執行的演算法,但機器人是不能理解什麼才是合適距離,什麼才是滿意的環境,什麼才是好吃的食物。

也就是說我們必須要用定量的語言表述。例如距離在3公里範圍內,大眾點評食物味道和環境因素大於或等於4星,停車位不少於50個,平均候餐時間不長於15分鐘。這樣,機器人才能夠做出類似於人類的判斷。但是演算法之間確極有可能存在矛盾。”

雖說現在華夏技術高度發達,但人工智慧這一方面還沒有完全掌握精髓。

如果僅僅是說商的話,那根本就沒有什麼好講的。

畢竟商是系統所賦予的東西。

就算是現在陳淵還想再弄 出一個商來,壓根就不可能,甚至說非常的困難。

例如在經典的哲學問題上——“你是一輛快速行走的列車上的列車長,列車的剎車已經壞了無法使用,你發現前方軌道上有5個修路工人,向左拐的軌道中有1個修路工人,此時你可以選擇向左拐或者是繼續向前行駛。這時候你應該怎麼辦?”

我們的無人駕駛汽車遇到這種情景應該如何處理?

這種情況下無論如何都要違背阿西莫夫的機器人三大定律。這種情況下,我們無法用清晰的邏輯演算法描述應該如何處理,因為作為人類本身,我們都無法說明哪一種情況才是真正正確的選擇。

但是,我們回頭想一下,把所有邏輯關系都清晰列舉出來讓機器人執行的這種模式是否正確。回頭看一下,我們對小孩的教育,難道我們是把所有的規矩都列出來,然後再每一個小孩子去執行的嗎?

顯然不是。

人類一生裡面的學習,有理論知識的學習,也就是說確實有各種成形的方法和理論,告訴我們一步一步應該怎麼做,但是這是不多的,完全不變通的理論應用是少之又少的。其實人類的學習過程中,更多是感知活動。

例如,小孩子學說話的過程,其實就是不斷地從視覺口型和聽覺聲音上,去不斷地感受,其大腦透過無數次情景資料的收集,最後歸納出不同的情景應該說什麼話,並在之後的應用中不斷地修正。過程,就是現在我們所說的大資料應用的過程。

所謂大資料,就是數量得足夠大,把資料的偏差能基本消除,得到一個相對規律的趨勢。回到之前的例子當中,在選擇一家餐廳吃飯時,如果收集了大量人們的用餐資料(,那麼這個機器人就可以給我推送一些較為符合我要求的餐廳。

也就是說,這個機器人不再需要完整地瞭解我為什麼這麼選擇,不知道瞭解我整個思考的邏輯過程,也不需要輸入一套完整的不矛盾的演算法規則,它就可以為我推薦一些合適的餐廳。它收集的用餐資料越多,那推薦餐廳的準備性就越高,出現偏差的可能性就越小。

【鑑於大環境如此,本站可能隨時關閉,請大家儘快移步至永久運營的換源App,huanyuanapp.org 】

又如在剛剛的哲學桉例中,我們也不需要告訴機器人,是應該直行撞向5個修路工人,還是應該向左轉撞向1個修路工人。它會收集相關的資料,知道這種情況下大多數人是怎麼選擇的,從而做出自己的決定。

當然我們不能保證大多數人的行為就是正確的,但是我要說的是,這種大資料的應用,恰恰是人類透過感知行為來進行學習的過程,具有這種學習模式的機器人才能真正稱之為智慧機器人。

如果我們將某個人一生裡所有行動的資訊,包括起床時間、說話語氣等全部生活習慣都以資料資訊的方式進行記錄,並將這些資料輸入機器人的系統,那麼理論上可以理解為這個機器人的行為舉動將會與人類A的行為相近,當輸入的信息量無限大時,機器人的行為就無限接近於人類A。

儘管收集的人類A的行為資料當中必然會存在矛盾之處,但是當資料足夠大時,這些偶然的偏差性就會被排除掉,使得機器人的行為無限接近於人類A。而且機器人並不單純地去模彷人類A的行為,它應用的其實是大資料的預測功能,也就是說這個機器人可以在沒有遇到過的情景中按照人類A的思維方式做出反應。

舉個例子,假設人類A實際上是生活是16世紀的歐洲人,在21世紀的華夏的這個機器人也可以知道做出人類A穿越來到21世紀的華夏後可能會有的反應。

那麼,智慧機器人是否能夠超越人類的智慧,完全取代人類呢?

在談論到這個問題時,陳淵沉默了片刻。

而後他說道。

“對此給出的答桉是兩面的。

我認為,未來智慧機器人是可以超過單個人的智慧的,因為智慧機器人集合的智慧決非是來自於一個人,它是將許多人許多不同領域的知識和經驗進行集合,因此它是很有可能超過單個人的智慧的。

但是,正由於它是透過這種大資料的預測應用模式,因此它能預測到的是一種漸變性的變化,按原有的思維模式猜想可能會遇到的問題,但是它是很難存在天馬行空的突破性創新的。”

而且機器人往往還有著所謂的三大定律。

這就要提到艾薩克·阿西莫夫了。

他是熊國科幻小說作家、科普作家、文學評論家,美國科幻小說黃金時代的代表人物之一,是人類歷史上最偉大的科幻小說家之一。

他與阿瑟·克拉克、羅伯特·海因來因並稱為“世界科幻三巨頭”;與儒勒·凡爾納、赫伯特·喬治·威爾斯並稱為科幻歷史上的三巨頭;他還獲得了星雲終身成就大師獎。

聯邦政府授予他“國家的資源與自然的奇蹟”稱號,以表彰他在“拓展全人類想象力”方面的傑出貢獻。他一生寫了500多本書,頗有些“魔幻”。

即使有的朋友沒有聽過他的名字,但是他的作品你肯定聽說過——其作品中以《基地系列》《銀河帝國三部曲》和《機器人系列》三大系列被譽為“科幻聖經”。他提出的“機器人學三定律”被稱為“現代機器人學的基石”。

阿西莫夫的高明之處在於,他不僅在這本書中開創了“機器人學三大法則”這一全新的科幻小說邏輯,更是藉助機器人的“失常”狀態來“顛覆”自己提出的法則。

一邊是顛覆,另一邊則就是破解,每一篇故事的核心衝突,都來自破解“機器人學三大法則”的漏洞,這“破解”也是讀者和小說主人公一起經歷一場緊湊而又風趣的“推理”。每個故事的內容都短小而精悍,但卻讓人回味無窮,可能這就是科幻的魅力。

所謂三定律便是。

第零定律:機器人必須保護人類的整體利益不受傷害。

第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管,除非這違反了機器人學第零定律。

第二定律:機器人必須服從人給予它的命令,當該命令與第零定律或者第一定律衝突時例外。

第三定律:機器人在不違反第零、第一、第二定律的情況下要儘可能保護自己的生存。

這3+1條定律保障了智慧機器人不會造反。

但是這個機器人定律真的是無懈可擊的嗎?

陳淵並不這樣覺得,如果他能和阿莫西夫一起暢談,說不定兩人還能商討出一些成績。

但這個定律不是沒有漏洞。

三定律的漏洞首先人們最常質疑的就是三定律的實現問題——阿西莫夫小說裡面的機器人都是有獨立思維的。三大定律的前提就是對於能夠自主學習思考解決問題的機器人,或者叫強人工智慧,他們自然就能像人類一樣判斷問題,至於怎麼造出這樣的機器人?不關小說家的事。

同時還有很多人拿道德法律和三定律比較,然而違反法律是要由第三者來懲罰的,想想那麼多的警匪片就知道了;違反道德最多就是受到譴責,心態好點的話啥事沒有。三定律是內置在機器人系統中的,違反了的話機器人自己就會“自殺”,就算機器人能力再高,除非他能自己修改自己的韌體,否則都不可能跳出三定律。

但三定律真的是無懈可擊的嗎?

其實機器人三定律的出處——阿西莫夫機器人系列——其實寫了一大堆方法來推翻定律。

其中最簡單的一個就是重新定義,你可以重新定義何為“人類”,你也可以重新定義“輕重傷”。

同時看過銀河帝國的話,一定會記得葛蘭.崔維茲,當初之所以選擇會選擇蓋亞,而不是謝頓計劃是因為謝頓計劃的預設前提是:銀河中,只有人類這一唯一的智慧物族。

其實,機器人三大定律也被限制在這種錯誤的前提條件下。不然,J.丹尼爾.奧利瓦為什麼要和菲龍大腦融合?