跳轉到內容

計算使用後果:機器人

來自華夏公益教科書

論文 2 - ⇑ 計算使用後果 ⇑

← 數字版權管理 機器人 新興技術 →


機器人 - 一種機械或虛擬智慧代理,可以自動或在引導下執行任務,通常透過遠端控制

機器人正成為現代社會越來越重要的一部分。它們在工廠工作,參加戰爭,可能有一天會在你的老年時照顧你。

人工智慧

[編輯 | 編輯原始碼]
人工智慧 - 一門研究所有表現形式的智慧的科學,包括生物體和現在和未來的機器


計算機科學中一個重要且龐大的領域是人工智慧 (AI),它研究如何製造智慧機器。許多機器人和計算機程式被認為具有人工智慧 (AI)。人工智慧可以用上面的定義來概括,明確的例子包括

試圖讓機器執行非常特定的任務,例如

  • 識別圖片中的面部或其他物體
  • 自動將書面或口頭詞語從一種語言翻譯成另一種語言
  • 控制著陸飛機、最佳化化工廠或發電站等過程
  • 吸塵房間
  • 電子遊戲中的人工對手
  • 在工廠裡建造東西

你甚至可能有一些關於如何將人工智慧用於你明年 A2 專案的想法。

平板玻璃工業中使用工業機器人進行材料搬運的工廠自動化

“會思考”的人工智慧甚至可以從經驗中學習,這意味著你無需顯式地程式設計它們如何對每一種情況做出反應。這種人工智慧開始對人類提出一些非常重大的問題。人類的智力和程式的智力之間真的有區別嗎?我們將在下面對此進行一些探討。

與人類相比,機器擅長和不擅長什麼?

[編輯 | 編輯原始碼]
  1. 機器擅長重複性任務(想想汽車製造機器人),因為它們不會感到疲倦或犯錯。
  2. 機器被認為不擅長做出它們沒有被構建來做出的判斷、同情、發明等。但是,如果我們製造出足夠聰明的機器,難道我們不能在其中構建這些能力嗎?

這能告訴我們關於人類思維方式的資訊嗎?

[編輯 | 編輯原始碼]

許多科學家和哲學家認為,計算機有一天會變得和人類一樣聰明。但是,關於“智慧”到底意味著什麼存在一個問題。如果它僅僅是很好地執行任務,那麼有一些計算機可以比大多數人類更好地創作音樂、清掃道路、駕駛飛機或解數學方程。我們甚至可以讓人工智慧計算機表現出同情和憤怒等情緒。這是否意味著我們可以完全再現思維方式?

1950 年,早期計算機科學先驅艾倫·圖靈提出了一項機器智慧測試。如果你可以與一組人類和一個人工智慧計算機程式進行對話,並且無法分辨你是在與人類還是計算機對話,那麼這臺計算機可以被視為與人類一樣聰明。這被稱為圖靈測試

玩家 C,即詢問者,的任務是試圖確定哪個玩家 - A 或 B - 是計算機,哪個是人類。詢問者只能接收書面回覆,這樣他們就無法根據外表進行判斷。

1980 年,哲學家約翰·塞爾提出一個思想實驗,有些人認為這個實驗證明了機器無法理解它們在做什麼。中文房間是一個箱子,裡面坐著一個人。他完全不懂中文,但會從門下遞給他中文漢字。他有一本中文漢字和相應答案的書。收到一個漢字後,他在書中查詢它,併發送相應的漢字作為回覆。在他沒有任何時候理解他在做什麼,他只是在按照指示操作。人工智慧可以被認為就像這樣,無論程式碼多麼複雜,它所做的只是用預定的輸出響應輸入,沒有任何理解。


類似的論點是由斯坦利·雅基在 1969 年提出的,他認為人工智慧有點像排水管,兩滴水滴流下來,在底部它們合併形成一個更大的水滴,但在任何時候排水管都沒有理解發生了什麼。他認為,人類擁有這種理解,而機器則沒有。

然而,許多哲學家和科學家認為,智慧和理解不過是對刺激做出反應的複雜演算法。真的有一個“我”在“理解”,它究竟是什麼?我們的思維可以簡化為一組演算法嗎?

擴充套件:心靈哲學

我們可以從機器中學到什麼

[編輯 | 編輯原始碼]

由於機器是可消耗的,它們使我們能夠在不擔心其安全性的情況下進行實驗和模擬人類。例如,軍隊使用機器來模擬人類從簡易爆炸裝置爆炸中受到的傷害。這使我們能夠設計出更能保護士兵的車輛和服裝。

在機器上進行測試使我們能夠更好地為危險情況做好準備

使用機器作為工具有哪些侷限性?

[編輯 | 編輯原始碼]

如果你建立了一個沒有情感並且沒有獲得情感能力的機器,例如汽車製造機器人,那麼在使用它們方面就有一些重要的侷限性。

如果你在一個工廠裡與一個機器人一起工作,並且你開始感覺不太好,這臺機器很可能沒有被程式設計為有任何同情心,並且很可能不會改變它的工作程式來適應你的變化。然而,有可能這臺機器人會被程式設計出這些功能。

在鑄造廠工作的關節式工業機器人

在大多數情況下,機器缺乏適應新情況的能力,它們被困在所獲得的程式碼中,無法在執行例行程式時發現安全問題。第一起機器人導致的死亡事件發生在 1979 年,當時一個機械臂擊中了美國一家金屬鑄造廠的工人羅伯特·威廉姆斯。

如果人工智慧產生了與我們一樣“智慧”的機器,也可能出現一些問題。在這種情況下,它們將沒有限制,就像我們一樣。 艾薩克·阿西莫夫 看到了這個問題,並定義了 機器人三定律 來確保機器人和人類能夠和平共處。

  1. 機器人不得傷害人類,也不得因不作為而讓人類受到傷害。
  2. 機器人必須服從人類的命令,除非該命令與第一定律相沖突。
  3. 機器人必須保護自己的存在,只要這種保護不與第一或第二定律相沖突。
練習:機器人

說出機器人適合做的一項任務。

回答


  • 製造汽車 - 不用擔心重複性任務,不會出錯。
  • 無人機 - 無論被擊落與否都無關緊要,可以長時間飛行而不會出錯。

不包括計算器、進行數學運算、託管網站等。為什麼要用機器人來做這些?計算器或計算機程式就足夠了!

機器人比人類更擅長什麼,為什麼?

回答

重複性任務,它們不會感到疲倦或出錯。

你相信機器人有一天會像人類一樣聰明嗎?

回答

這是一個需要你認真思考的論文題目。

機器在執行任務時可能會遇到哪些限制?舉一個可能出錯的情況的例子。

回答


它可能沒有被程式設計為處理它遇到的場景。

  • 機械臂沒有意識到有人在其危險區域內,導致被壓扁。
華夏公益教科書