新聞 > 科教 > 正文

可怕的機械人叛變?叫它撞牆學懂say no

人工智能會是將來科技的方向,但人類是不是真的可以控制人工智能,或者機械人?美國麻省塔夫斯大學(Tufts University)研究員早前設定兩個機械人的程式,嘗試叫它們做一些「危險動作」,機械人內置的系統竟然懂得拒絕執行指令。

大學工程師布里格斯(Gordon Briggs)與朔伊茨(Matthais Scheutz),早前創造了機械人「謝弗」和「登普斯特」,然後再教它們如何拒絕人類的命令。他們在論文中指出:「人類懂得以不同理由,拒絕指令...其實隨着人工智能的發展,愈來愈多人關注機械倫理,而機械人懂不懂拒絕人類指令,也有愈來愈多人關注。」

為了讓機械人分辨何時需要拒絕指令,布里格斯及朔伊茨均在機械人的軟件中,加入「推理」這個功能,機械人在接收指令時,也會分析現場四周環境,確保自己的「人身」安全。例如,機械人會懂得分辨前方是不是有障礙物,若它發現有障礙物在前,就會拒絕繼續前進;但若發指令者告訴機械人:「前方的障礙物不是堅硬的。」那機械人就會繼續前進。

有人擔心,這項技術將會令人類更難控制機械人,甚至引發機械人「叛變」。不過布里格斯與朔伊茨指出,以目前的科技是不可能達成「機械人自主」的層面,因為人類需要把更多的情景、對話及推理模式,加入機械人軟件中。

責任編輯: 楚天  來源:東方日報 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2015/1127/652003.html