欧美18一20男同69gayI久久99视频免费观看I性xxxxfreexxxxx高跟鞋I99久久99Iwww色I欧美日产在线观看I在线看电影 你懂的I国产涩涩在线观看Ijuliaannxxxxx黑人I国产999精品I国产黄色片免费I丝袜tk一一视频vkI亚洲综合婷婷I98超碰在线观看I中文字幕一区2区3区I91影视在线播放I日韩在线视频精品I黄色网址在线免费看

機器人是"道德僵尸" 科學家難讓其做好人

放大字體  縮小字體 發布日期:2014-10-10     來源:[標簽:出處]     作者:[標簽:作者]     瀏覽次數:133
核心提示:
訊:機器人能分辨對錯嗎?想讓機器人、自動駕駛汽車和軍用機械有道德觀念實在是太難了。

  我們能否教育機器人做個“好人”?帶著這個想法,英國布里斯托爾機器人實驗室的機器人專家艾倫·溫菲爾德為機器人制造了一個道德陷阱,而接下來,機器人的反應則令人震驚。

  在一個實驗中,溫菲爾德和他的同事為機器人設定了一個程序:阻止其他擬人機器人掉進洞里。這是艾薩克·阿西莫夫(美國著名的科幻小說家)提出的機器人三大定律之一——機器人必須防止人類受傷害——的簡版。

  一開始,機器人還能順利完成任務:當擬人機器人向洞口移動時,機器人會沖上前去將其推開,防止其掉到洞里。隨后,研究小組又添加了一個擬人機器人,兩個擬人機器人同時向洞口移動,救人機器人則要被迫做出選擇。有時,它成功地救了一個“人”,而另一個掉進了洞里;有幾次,它甚至想要兩個都救;然而在33次測試中,有14次因為在救哪一個的問題上不知所措而浪費了時間,以至于兩個“人”都掉進了洞里。研究人員于9月2日在英國伯明翰召開的“邁向自主機器人系統”會議上向世人展示了他們的實驗。

  溫菲爾德形容他的機器人是“道德僵尸”,雖然根據設定的行為程序,它可以對他人進行施救,但它根本不理解這種行為背后的原因。溫菲爾德說,他曾經認為讓機器人自己做出道德倫理選擇是不可能的。現如今,他說:“我的答案是:我不知道。”

  隨著機器人日益融入我們的日常生活,這一問題也需要答案。例如一輛自動駕駛汽車,某天或許要在保全車內人員安全和給其他駕駛員或行人造成傷害這一風險之間進行權衡。或許很難給機器人設置處理這種情況的相應程序。

  然而,為軍事戰爭設計的機器人或許能夠為我們提供解決這一問題的初步答案。佐治亞理工學院的計算機科學家羅納德·阿金專門針對名為“道德監督員”的軍事機器人研制了一套運算法則,這套運算法則可幫機器人在戰場上做出明智的抉擇。阿金已經在模擬戰斗中進行了測試,結果顯示,安裝這種程序的機器人能夠選擇不開槍,且在戰斗過程中,能夠在學校和醫院等戰爭條例規定的受保護區域附近盡量減少人員傷亡。

  阿金說:“戰爭法則已有千年歷史,人類會受情感因素影響而打破規矩,機器人則不會。”

工博士工業品商城聲明:凡資訊來源注明為其他媒體來源的信息,均為轉載自其他媒體,并不代表本網站贊同其觀點,也不代表本網站對其真實性負責。您若對該文章內容有任何疑問或質疑,請立即與商城(www.aoturen.cn)聯系,本網站將迅速給您回應并做處理。
聯系電話:021-31666777
新聞、技術文章投稿QQ:3267146135  投稿郵箱:syy@gongboshi.com