close

201705281822

「人工智慧」(AI)方興未艾的時代,以人做為樣板製造機器僕人會有什麼危險,成為當今一門迫切課題;目前已有成千上萬的機器人完全不加思索、執行人類的命令,但是人類如何確保機器人永遠為人的最高利益效勞?是否應該教它們自我思考?如果是的話,又該如何教它們分辨是非善惡? 這個問題在2017年已經無可迴避。「經濟學人」雜誌報導說,自駕車已經在公路上趴趴走,它的自行判斷可能影響其他使用道路的人類之安危。日本、歐洲和美國研發機器人照料老人及殘障人士。2015年推出的一款綽號「機器熊」(Robear)的機器人,力量大到可把病人從床上舉起;理論上,它也可能壓垮受照護者。美國陸軍自從2000年已部署數以千計配備機關槍的機器人,它們可以不必人為操作就鎖定標的、瞄準對象(不過,它們還不能在沒有人類監管下扣扳機)。 公共人物也撩撥起世人對自動化機械的恐懼感。譬如,科技創投家馬斯克(Elon Musk)就聲稱人工智慧是對人類生存最大的威脅。白宮在去年夏天成立四個專家小組研究機器人的道德規範。麻省理工學院學者羅莎琳‧皮卡德(Rosalind Picard)就說:「機器愈是自由,就愈需要有道德標準。」 捷克首都布拉格電玩設計師洛薩(Marek Rosa)投資1000萬美元成立Good AI公司,正在把人工智慧當成小孩子循循善誘,教導倫理概念。洛薩把人工智慧當成空白石板,可以鐫刻上基本價值,日久它們就能在難以預見的情境下運用這些原則。這個邏輯沒有問題,人類就是觀察別人的行為直覺學到什麼是合乎倫理道德的行為,問題在於若是淨看壞榜樣,就沾染一身惡習。 目前像Good AI這樣的機構不少,如未來生命研究所(The Future of Life Institute)、負責任的機器人集團(The Responsible Robotics Group)等都在教導機器人分辨是非善惡。 喬治亞理工學院教授艾金(Ron Arkin)自2006年起得到美國軍方資助,發展軟硬體俾便機器人戰士能遵守戰爭道德規範。他認為在道德方面機器人戰士比人類高明,因為它們不會姦殺擄掠。 在科幻小說裡,機器人開始有知覺意識,通常都是人類認為自己對創造出來的事物有道德責任那一刻。機器人或許比榔頭更複雜,但本質上它還是工具;可是當機器人開始學到情感這類東西,它們的行為舉止會更像人類。因此人類們不能不思索,至少有道義責任要設法教導機器人最適當的生活方式。

AI學會思考與情感 亟需道德規範

桃園護膚

最多美妹的按摩天堂

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 yuthmbo 的頭像
    yuthmbo

    yuthmbo的部落格

    yuthmbo 發表在 痞客邦 留言(0) 人氣()