作者:王鐘的
美國社交網(wǎng)站臉書(Facebook)表示,已開發(fā)出能夠辨識輕生念頭的人工智能軟件,即將將之推廣到其它國家。事實上,已有多個研究團隊表示研發(fā)出了能夠預(yù)防自殺的人工智能技術(shù),主要方法都是在郵件、論壇、社交媒體平臺中分析含有自殺傾向和想法的語言,讓心理干預(yù)人員獲得及時介入的機會。在初步的試驗中,有的機器識別正確率超過了90%。
盡管類似的系統(tǒng)精準(zhǔn)性有待驗證,比如會不會“誤傷”原本沒有真實自殺念頭的用戶——有的自殺念頭僅能表現(xiàn)用戶“為賦新詞強說愁”的心理,但是,運用人工智能排查互聯(lián)網(wǎng)上的海量數(shù)據(jù),無疑是高效率地預(yù)防自殺的思路。
首先,“預(yù)告式自殺”在互聯(lián)網(wǎng)上普遍存在。搜索近期新聞,就能看到許多通過微博等渠道“預(yù)告自殺”,得到關(guān)注后被成功解救的例子。無論這種網(wǎng)絡(luò)自殺預(yù)告有多大的信度,只要有一絲真實的可能,就值得社會千方百計拯救。使用人工智能來篩查“自殺預(yù)告”,顯然提高了社會自殺信息預(yù)警的覆蓋面,減少干預(yù)機構(gòu)的反應(yīng)時間。
其次,即使一個人不直接表露自殺意愿,人工智能依然有機會分析出其自殺傾向。例如,機器可以統(tǒng)計與自殺相關(guān)的詞語的使用頻率,當(dāng)一段時間內(nèi)某個人頻繁地使用一些跟自殺相關(guān)的詞語時,人工智能就可以發(fā)出預(yù)警。機器能夠察覺出語詞間的細微差別,對一個人語言習(xí)慣作整體的畫像,而這是感性的人工排查無力實現(xiàn)的。
其實,很多人都產(chǎn)生過自殺的想法,但未必會將自殺付諸實施。機器所能做的是將自殺想法排查出來。盡管自殺念頭和自殺行為之間隔了很大的距離,人工智能的介入仍然很有意義。至少,對整個社會人群的心理健康而言,自殺的想法無疑是一個很重要的指標(biāo)。當(dāng)被機器檢測出存在自殺傾向以后,你也許不必被當(dāng)成自殺者那樣看待,但一定有必要找個心理咨詢師聊聊了。
當(dāng)然,這樣的人工智能技術(shù)能不能有效實施,還取決于數(shù)據(jù)來源是否足夠豐富。很多表達潛在自殺者內(nèi)心想法的言語,可能出現(xiàn)在非公開的、受隱私保護的領(lǐng)域,比如不對外公開的朋友圈,需要添加好友才能看到的社交圈,等等。人工智能技術(shù)是否有權(quán)利突破隱私保護的限制,既是一個倫理問題,也是一個法律問題。即使認(rèn)為自殺干預(yù)很有必要,網(wǎng)絡(luò)平臺也應(yīng)該事先跟用戶簽訂協(xié)議,以避免后期產(chǎn)生糾紛。
在科幻作品中,人工智能被賦予了復(fù)雜的形象,很多人擔(dān)心人工智能會對人類過多的控制。其實,在現(xiàn)實中沒必要那么緊張,人類對人工智能技術(shù)有充分的駕馭能力,完全可以將技術(shù)用于安全、健康的環(huán)境中。預(yù)防自殺可謂是人工智能技術(shù)的小試牛刀,大膽設(shè)想的話,人工智能可以在人類健康領(lǐng)域扮演更重要的角色。當(dāng)人工智能發(fā)展到一定水平,人們對健康管理、心理管理的觀念也勢必大不一樣。
當(dāng)然,人類利用人工智能,并不是完全依賴人工智能。就像自殺干預(yù)一樣,機器可以代替人處理大量數(shù)據(jù),作初步的篩查,但是想要走進存在心理隱患者的內(nèi)心,還是需要內(nèi)涵更豐富的人工對話。無論如何,人工對機器排查作最后的把關(guān),不僅是對人工智能技術(shù)負責(zé)任,也是對心理健康管理這一公共健康重要領(lǐng)域的負責(zé)任。(王鐘的)
·凡注明來源為“??诰W(wǎng)”的所有文字、圖片、音視頻、美術(shù)設(shè)計等作品,版權(quán)均屬??诰W(wǎng)所有。未經(jīng)本網(wǎng)書面授權(quán),不得進行一切形式的下載、轉(zhuǎn)載或建立鏡像。
·凡注明為其它來源的信息,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責(zé)。
網(wǎng)絡(luò)內(nèi)容從業(yè)人員違法違規(guī)行為舉報郵箱:jb66822333@126.com