中文字幕无码久久精品,13—14同岁无码A片,99热门精品一区二区三区无码,菠萝菠萝蜜在线观看视频高清1

 首頁(yè) > 新聞 > IT與互聯(lián)網(wǎng) >

要是人工智能殺了人,我們應(yīng)該怪誰(shuí)?

2015-08-19 11:19:54   作者:   來(lái)源:雷鋒網(wǎng)   評(píng)論:0  點(diǎn)擊:


  關(guān)于人工智能倫理問(wèn)題,特別是涉及到開發(fā)機(jī)器人武器之類的問(wèn)題,我們已經(jīng)討論過(guò)很多次了。實(shí)際上,之前我們更多的是把人工智能作為一種人類已知威脅來(lái)展開討論的。那些喜歡電影《終結(jié)者》的粉絲應(yīng)該對(duì)它的情節(jié)還記憶猶新吧,片中人工智能“天網(wǎng)”希望終結(jié)人類,如果這一幕真的發(fā)生,那么我們現(xiàn)在討論什么監(jiān)管啊,責(zé)任啊,似乎都毫無(wú)意義。但所謂千里之堤毀于蟻穴,尤其在法律哲學(xué)家John Donaher的眼里,如果能夠仔細(xì)思考這些問(wèn)題的話,說(shuō)不定會(huì)有助于減少未來(lái)可能存在的風(fēng)險(xiǎn)。

  人工智能的監(jiān)管與責(zé)任,其實(shí)和安全與公共福利一樣,都像是硬幣的正反面。監(jiān)管的目的,是為了確保人工智能系統(tǒng)盡可能的安全;而責(zé)任,其實(shí)就是為了當(dāng)人工智能系統(tǒng)出錯(cuò)時(shí),我們可以找到可以追究問(wèn)題的人,或者再說(shuō)的準(zhǔn)確一點(diǎn)兒,就是找誰(shuí)可以獲得法律上的賠償。

  應(yīng)該向誰(shuí)追責(zé)呢?

  讓我們先來(lái)談?wù)勜?zé)任問(wèn)題吧。首先,我們可以模擬一個(gè)侵權(quán)(民事)責(zé)任問(wèn)題,想象下,在不遠(yuǎn)的將來(lái)可能會(huì)發(fā)生這樣一個(gè)場(chǎng)景:一輛無(wú)人駕駛拖拉機(jī)原本應(yīng)該按照指令在A農(nóng)民的田里播種,但是奇怪的是,它卻把種子播種到了B農(nóng)民家的田里。

  讓我們先假設(shè)A農(nóng)民是完全按照操作手冊(cè)來(lái)使用那輛無(wú)人播種拖拉機(jī)的,同時(shí),我們也假設(shè)A農(nóng)民無(wú)需再做其他額外的操作,比如在農(nóng)田交界處設(shè)置無(wú)線電信標(biāo),等等。那么現(xiàn)在,假設(shè)農(nóng)民B要來(lái)控告這次錯(cuò)誤播種事件(我們暫且不考慮諸如滋擾和侵犯等問(wèn)題),會(huì)遇到哪些問(wèn)題呢?。

  實(shí)際上,有很多問(wèn)題需要被回答,這個(gè)事故是農(nóng)民A的責(zé)任嗎?可能不是;那么,是無(wú)人播種拖拉機(jī)廠商的責(zé)任嗎?有可能,但在此之前,我們是不是該明確與這些問(wèn)題相關(guān)的責(zé)任和標(biāo)準(zhǔn)呢?比如無(wú)人播種拖拉機(jī)的行業(yè)標(biāo)準(zhǔn)是什么,制造商的產(chǎn)品規(guī)格是否符合相關(guān)標(biāo)準(zhǔn)呢?不僅如此,如果自己的土地被他人種植上了其他農(nóng)作物,這是否算是財(cái)產(chǎn)損失,又是否能否追溯經(jīng)濟(jì)賠償呢?

  在一連串問(wèn)題之前,我們其實(shí)是先假定了無(wú)人播種拖拉機(jī)里面的系統(tǒng)軟件是由制造商開發(fā)的。那么接下來(lái)又有新的問(wèn)題出現(xiàn)了,如果那套人工智能系統(tǒng)是由第三方開發(fā)公司完成開發(fā)的,該如何處理?還有,系統(tǒng)內(nèi)部的軟件代碼是由多人合作完成的,又該如何界定各自的職責(zé)?

  隨著時(shí)間的推移,人工智能系統(tǒng)將會(huì)越來(lái)越不依靠傳統(tǒng)的經(jīng)典算法和代碼,而且他們也會(huì)展示出更多我們無(wú)法預(yù)料到的行為,值得一提的是,這些行為沒(méi)有人可能預(yù)測(cè)得到,甚至包括人工智能系統(tǒng)的創(chuàng)造者也無(wú)法預(yù)料。但重要的是,可預(yù)見性,其實(shí)是處理責(zé)任過(guò)失問(wèn)題中一個(gè)非常關(guān)鍵的組成部分。

  為了能夠讓讀者更好地理解可預(yù)見性問(wèn)題,我們才會(huì)假設(shè)了上面那個(gè)無(wú)人播種拖拉機(jī)的案例,或許十年、二十年之后,人工智能已經(jīng)不再是簡(jiǎn)單的種錯(cuò)莊稼這件事兒了,它可能會(huì)是某個(gè)意外讓人們受傷,更嚴(yán)重一些,人工智能可能會(huì)不小心殺人。所以,如果我們的法律無(wú)法適時(shí)作出改變,那么未來(lái)將會(huì)導(dǎo)致更多問(wèn)題出現(xiàn)。就拿上面那個(gè)人工智能種錯(cuò)莊稼的事情為例,當(dāng)無(wú)法實(shí)現(xiàn)可預(yù)見性,最終的結(jié)果就是沒(méi)人承擔(dān)責(zé)任!

  責(zé)怪人工智能機(jī)器人

  為什么我們不干脆去責(zé)怪機(jī)器人呢?畢竟,關(guān)于人工智能人格也有過(guò)討論,而且人工智能系統(tǒng)本身也有擔(dān)負(fù)刑事責(zé)任的可能。

  但是,這種方法在實(shí)際應(yīng)用時(shí)又有什么不一樣呢?這里,還是借用別人曾經(jīng)說(shuō)過(guò)的一句話吧。“人工智能系統(tǒng)真的會(huì)像著名小說(shuō)家艾薩克·阿西莫夫筆下的機(jī)器管家那樣嗎?遵守法律,遵從道德良知,還能保護(hù)銀行存款?”

  我們姑且不去討論人工智能系統(tǒng)是否可以被起訴,但人工智能制造商和開發(fā)商們必須受到監(jiān)管。只有這樣,才有可能將一些無(wú)法歸責(zé)的各方,用嚴(yán)格責(zé)任賠償(注:嚴(yán)格責(zé)任賠償是指只要造成了損害,不論行為人有無(wú)過(guò)錯(cuò),都要承擔(dān)賠償責(zé)任。 常見的適用于無(wú)過(guò)錯(cuò)責(zé)任原則的,有從事高壓、劇毒、高速、放射等作業(yè)造成他人損害的。工傷是典型的適用無(wú)過(guò)錯(cuò)責(zé)任原則的,也就是說(shuō)只要?jiǎng)趧?dòng)者在工作期間因公受傷了,排除勞動(dòng)者個(gè)人主觀故意的因素之外,雇用單位無(wú)論有無(wú)過(guò)錯(cuò)都要承擔(dān)工傷賠償?shù)呢?zé)任的。)約束起來(lái),

  實(shí)際上,在我們的日常生活里,嚴(yán)格責(zé)任賠償已經(jīng)應(yīng)用到了很多地方。當(dāng)然除了這種責(zé)任賠償之外,如果需要對(duì)人工智能追責(zé),其實(shí)也可以采用無(wú)過(guò)錯(cuò)責(zé)任賠償和賠償方案池等方式。

  規(guī)章制度

  如果從監(jiān)管的角度來(lái)看人工智能,那么你會(huì)發(fā)現(xiàn),嚴(yán)格的安全標(biāo)準(zhǔn),以及建立完善的安全認(rèn)證流程也都是非常必要的。不過(guò),如何設(shè)計(jì)一個(gè)合適的機(jī)構(gòu)與流程框架,并且讓這個(gè)框架得以有效運(yùn)行,依然是一個(gè)非常棘手的問(wèn)題。

  人工智能領(lǐng)域復(fù)雜難懂,而且外部世界對(duì)于人工智能研發(fā)圈子普遍缺乏認(rèn)識(shí),這也就是人工智能專家需要盡快創(chuàng)建行業(yè)框架的原因所在。實(shí)際上,這里所說(shuō)的框架,就是規(guī)章制度,說(shuō)通俗些也就是游戲規(guī)則。因此,這意味著人工智能顧問(wèn)委員會(huì)需要和政府一起,盡快立法,建設(shè)行業(yè)標(biāo)準(zhǔn)。

  我們不得不承認(rèn),人工智能行業(yè)存在巨大的潛在效益;但是標(biāo)準(zhǔn)和流程,需要不斷的創(chuàng)建、更新、并且執(zhí)行,這樣才能達(dá)到一種持續(xù)性平衡,繼而最大限度地提高公共福利和安全;當(dāng)然,也只有這樣,才不會(huì)扼殺創(chuàng)新,更不會(huì)出現(xiàn)不必要的法律負(fù)擔(dān)。

  事實(shí)上,站在國(guó)家的角度上,建立任何一個(gè)法律框架或游戲規(guī)則,都必須要足夠靈活,監(jiān)管機(jī)構(gòu)不僅需要考慮到本國(guó)利益,也要從全球角度出發(fā)。這意味著在某種程度上,你不僅要考慮本國(guó)的人工智能產(chǎn)量,以權(quán)衡進(jìn)口其他各國(guó)人工智能技術(shù),同時(shí),你還要思考該如何任何不同國(guó)家之間的安全標(biāo)準(zhǔn)和認(rèn)證,必要的時(shí)候,你是否還需要遵守未來(lái)可能出現(xiàn)的國(guó)際條約或公約,等等。所有這一切,遠(yuǎn)比我們想象的要復(fù)雜得多。

  因此,當(dāng)我們沿著人工智能研發(fā)的道路上前行,圍繞人工智能構(gòu)建規(guī)章制度是必須要去做的事情,不要當(dāng)一切都來(lái)不及時(shí)再后悔莫及。

  現(xiàn)在,我們已經(jīng)開始對(duì)無(wú)人駕駛汽車所涉及到的問(wèn)題展開討論了,那么未來(lái)人工智能還需要受到哪些法律法規(guī)的約束呢?

分享到: 收藏

專題