10月20日,在美國加利福尼亞州拉古納比奇舉行的一場科技大會上,情感機器人“佩珀”和一位與會者拍手。(路透社)
外媒稱,隨著人工智能技術越來越先進,人們愈發(fā)擔心,機器人可能變成一種威脅。據(jù)加利福尼亞大學伯克利分校計算機學教授斯圖爾特·拉塞爾說,這種危險是可以避免的,如果我們能夠解決如何把人類價值變成可編程的代碼。
據(jù)美國石英財經(jīng)網(wǎng)站11月1日報道,拉塞爾說,在機器人領域,“道德哲學將是一個非常重要的產(chǎn)業(yè)部門”。他指出:“隨著機器人從事更加復雜的任務,我們絕對有必要把我們人類的道德轉化為人工智能語言?!?/p>
比如說,如果機器人在房子里做雜務——預計未來幾十年將會出現(xiàn)這種場面——的話,你可不想機器人把寵物貓放進烤箱里,給饑腸轆轆的孩子們做頓大餐。拉塞爾說:“你會希望給那個機器人預先載入一大套人類價值?!?/p>
人們已將基本的人類價值編入了一些機器人的程序?,旣惻醮髮W計算機學教授彼得·麥克歐文說,可移動機器人就被編入了與人類保持適當距離的程序。
他說:“這是機器人行為可被視為體現(xiàn)某種價值的一個極為簡單的例子。如果機器人在你和別人說話時靠近你們的私人空間,你就會認為,這不是一個有教養(yǎng)的人會做的事情?!?/p>
創(chuàng)造更復雜的、具備道德規(guī)范的機器人是可能的,但條件是我們要找到把人類價值設定成明確規(guī)則的辦法。
麥克歐文說:“這種價值設定工程要有研究人類價值的專家參與進來,其中包括哲學家、心理學家、人種學家以及外行人士。就像你把專業(yè)知識轉化成一套規(guī)則一樣,你可以將這個討論組提供的信息轉化成一系列規(guī)則?!?/p>
此外,機器人還可以選取根據(jù)有關人類行為的大套數(shù)據(jù)制成的模型來學習人類價值。
麥克歐文說,只有在程序員不負責任的情況下,機器人才會成為一種危險。
他說:“就機器人違反人類價值這一問題,人們最擔心的是,如果人類因為沒有進行充分測試而沒有給機器人正確編程的話,機器人就不會有充分的安全保障,它們就會有辦法去打破某種禁忌?!?/p>
簡單的方法是,當出現(xiàn)特殊情況時,給機器人編入讓人去檢查機器人行為是否正確的程序。
麥克歐文說:“如果機器人不確定一種動物是否適合被放進微波爐時,它可以停下來,發(fā)出嗶嗶的信號聲,以請求人給出指示。”
把人類價值編成程序最困難的一步是,要確定什么才是我們認為的道德行為,以及如何制定一套道德規(guī)則。如果我們有了答案,那么機器人對人類就會是有益的。
?
?
?
相關鏈接:
小伙給ATM機灌飲料指望機器狂吐鈔票?
·凡注明來源為“??诰W(wǎng)”的所有文字、圖片、音視頻、美術設計等作品,版權均屬??诰W(wǎng)所有。未經(jīng)本網(wǎng)書面授權,不得進行一切形式的下載、轉載或建立鏡像。
·凡注明為其它來源的信息,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責。
網(wǎng)絡內容從業(yè)人員違法違規(guī)行為舉報郵箱:jb66822333@126.com