計算使用後果:機器人
機器人正成為現代社會越來越重要的一部分。它們在工廠工作,參加戰爭,可能有一天會在你的老年時照顧你。
計算機科學中一個重要且龐大的領域是人工智慧 (AI),它研究如何製造智慧機器。許多機器人和計算機程式被認為具有人工智慧 (AI)。人工智慧可以用上面的定義來概括,明確的例子包括
試圖讓機器執行非常特定的任務,例如
- 識別圖片中的面部或其他物體
- 自動將書面或口頭詞語從一種語言翻譯成另一種語言
- 控制著陸飛機、最佳化化工廠或發電站等過程
- 吸塵房間
- 電子遊戲中的人工對手
- 在工廠裡建造東西
你甚至可能有一些關於如何將人工智慧用於你明年 A2 專案的想法。

“會思考”的人工智慧甚至可以從經驗中學習,這意味著你無需顯式地程式設計它們如何對每一種情況做出反應。這種人工智慧開始對人類提出一些非常重大的問題。人類的智力和程式的智力之間真的有區別嗎?我們將在下面對此進行一些探討。
- 機器擅長重複性任務(想想汽車製造機器人),因為它們不會感到疲倦或犯錯。
- 機器被認為不擅長做出它們沒有被構建來做出的判斷、同情、發明等。但是,如果我們製造出足夠聰明的機器,難道我們不能在其中構建這些能力嗎?
許多科學家和哲學家認為,計算機有一天會變得和人類一樣聰明。但是,關於“智慧”到底意味著什麼存在一個問題。如果它僅僅是很好地執行任務,那麼有一些計算機可以比大多數人類更好地創作音樂、清掃道路、駕駛飛機或解數學方程。我們甚至可以讓人工智慧計算機表現出同情和憤怒等情緒。這是否意味著我們可以完全再現思維方式?
1950 年,早期計算機科學先驅艾倫·圖靈提出了一項機器智慧測試。如果你可以與一組人類和一個人工智慧計算機程式進行對話,並且無法分辨你是在與人類還是計算機對話,那麼這臺計算機可以被視為與人類一樣聰明。這被稱為圖靈測試。

1980 年,哲學家約翰·塞爾提出一個思想實驗,有些人認為這個實驗證明了機器無法理解它們在做什麼。中文房間是一個箱子,裡面坐著一個人。他完全不懂中文,但會從門下遞給他中文漢字。他有一本中文漢字和相應答案的書。收到一個漢字後,他在書中查詢它,併發送相應的漢字作為回覆。在他沒有任何時候理解他在做什麼,他只是在按照指示操作。人工智慧可以被認為就像這樣,無論程式碼多麼複雜,它所做的只是用預定的輸出響應輸入,沒有任何理解。
類似的論點是由斯坦利·雅基在 1969 年提出的,他認為人工智慧有點像排水管,兩滴水滴流下來,在底部它們合併形成一個更大的水滴,但在任何時候排水管都沒有理解發生了什麼。他認為,人類擁有這種理解,而機器則沒有。
然而,許多哲學家和科學家認為,智慧和理解不過是對刺激做出反應的複雜演算法。真的有一個“我”在“理解”,它究竟是什麼?我們的思維可以簡化為一組演算法嗎?
|
擴充套件:心靈哲學
|
由於機器是可消耗的,它們使我們能夠在不擔心其安全性的情況下進行實驗和模擬人類。例如,軍隊使用機器來模擬人類從簡易爆炸裝置爆炸中受到的傷害。這使我們能夠設計出更能保護士兵的車輛和服裝。

如果你建立了一個沒有情感並且沒有獲得情感能力的機器,例如汽車製造機器人,那麼在使用它們方面就有一些重要的侷限性。
如果你在一個工廠裡與一個機器人一起工作,並且你開始感覺不太好,這臺機器很可能沒有被程式設計為有任何同情心,並且很可能不會改變它的工作程式來適應你的變化。然而,有可能這臺機器人會被程式設計出這些功能。

在大多數情況下,機器缺乏適應新情況的能力,它們被困在所獲得的程式碼中,無法在執行例行程式時發現安全問題。第一起機器人導致的死亡事件發生在 1979 年,當時一個機械臂擊中了美國一家金屬鑄造廠的工人羅伯特·威廉姆斯。
如果人工智慧產生了與我們一樣“智慧”的機器,也可能出現一些問題。在這種情況下,它們將沒有限制,就像我們一樣。 艾薩克·阿西莫夫 看到了這個問題,並定義了 機器人三定律 來確保機器人和人類能夠和平共處。
- 機器人不得傷害人類,也不得因不作為而讓人類受到傷害。
- 機器人必須服從人類的命令,除非該命令與第一定律相沖突。
- 機器人必須保護自己的存在,只要這種保護不與第一或第二定律相沖突。
|
練習:機器人 說出機器人適合做的一項任務。 回答
不包括計算器、進行數學運算、託管網站等。為什麼要用機器人來做這些?計算器或計算機程式就足夠了! 機器人比人類更擅長什麼,為什麼? 回答 重複性任務,它們不會感到疲倦或出錯。 你相信機器人有一天會像人類一樣聰明嗎? 回答 這是一個需要你認真思考的論文題目。 機器在執行任務時可能會遇到哪些限制?舉一個可能出錯的情況的例子。 回答
|