可怕的機械人叛變?叫它撞牆學懂say no

.mobileyad{display:none;}.desktopyad{padding:10px 0!important;}@media only screen and (max-width: 1000px) {.mobileyad{display:block!important;}.desktopyad{display:none;}}
人工智慧會是將來科技的方向,但人類是不是真的可以控制人工智慧,或者機械人?美國麻省塔夫斯大學(Tufts University)研究員早前設定兩個機械人的程式,嘗試叫它們做一些“危險動作”,機械人內置的系統竟然懂得拒絕執行指令。大學工程師布里格斯(Gordon Briggs)與朔伊茨(Matthais Scheutz),早前創造了機械人“謝弗”和“登普斯特”,然後再教它們如何拒絕人類的命令。他們在論文中指出:“人類懂得以不同理由,拒絕指令...其實隨著人工智慧的發展,愈來愈多人關注機械倫理,而機械人懂不懂拒絕人類指令,也有愈來愈多人關注。”為了讓機械人分辨何時需要拒絕指令,布里格斯及朔伊茨均在機械人的軟體中,加入“推理”這個功能,機械人在接收指令時,也會分析現場四周環境,確保自己的“人身”安全。例如,機械人會懂得分辨前方是不是有障礙物,若它發現有障礙物在前,就會拒絕繼續前進;但若髮指令者告訴機械人:“前方的障礙物不是堅硬的。”那機械人就會繼續前進。有人擔心,這項技術將會令人類更難控制機械人,甚至引發機械人“叛變”。不過布里格斯與朔伊茨指出,以目前的科技是不可能達成“機械人自主”的層面,因為人類需要把更多的情景、對話及推理模式,加入機械人軟體中。


[圖擷取自網路,如有疑問請私訊]

本篇
不想錯過? 請追蹤FB專頁!    
前一頁 後一頁