中文字幕无码久久精品,13—14同岁无码A片,99热门精品一区二区三区无码,菠萝菠萝蜜在线观看视频高清1

您當前的位置是:  首頁 > 資訊 > IT與互聯(lián)網(wǎng) >

中國信通院端晨希:ChatGPT的倫理挑戰(zhàn) AI的技術特點及風險

2023-03-14 09:58:38   作者:   來源:中國信通院   評論:0  點擊:


  繼Alpha Go戰(zhàn)勝圍棋高手李世石后,對話機器人ChatGPT的出現(xiàn)再次掀起人工智能討論熱潮。ChatGPT是OpenAI開發(fā)的文本生成式對話應用,具有強智能、強交互、廣應用等特點。然而,以ChatGPT為代表的生成式人工智能給人類社會帶來經(jīng)濟、法律、倫理等諸多挑戰(zhàn),本文主要從ChatGPT的倫理挑戰(zhàn)為視角進行分析。

  一、 人工智能倫理概述

  倫理是人們相互關系的行為準則。人工智能倫理是關于人和人工智能相互關系的準則,是開展人工智能研究、開發(fā)、管理、供應和使用等科技活動需要遵循的價值理念和行為規(guī)范。

  為符合實踐需要,人工智能倫理形成以人工智能倫理原則為出發(fā)點的概念建構模式。

  一是,多個國家和地區(qū)通過發(fā)布人工智能倫理原則的方式,闡述人工智能倫理治理的基本目標和要求。如國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理8項原則,豐富了人工智能倫理的內(nèi)涵,提出了人工智能倫理治理的要求。

  二是,國際組織通過發(fā)布人工智能倫理原則,推進人類共同理念的達成,促進人工智能領域的國際合作。如聯(lián)合國教科文組織在《人工智能倫理問題建議書》中提出公平和非歧視、可持續(xù)性、人類的監(jiān)督和決定、透明度和可解釋性等10項原則,提出負責任人工智能發(fā)展的全球治理目標。

  三是,科技企業(yè)形成圍繞人工智能倫理原則的倫理風險治理體系。如微軟提出負責任人工智能應當符合公平性、可靠性和安全性、隱私性和安全性、包容性、透明度和問責制6項原則,并圍繞相關原則制定負責任人工智能的標準、開發(fā)相配套的技術工具。

  二、ChatGPT的技術特點及風險

  ChatGPT是由大數(shù)據(jù)驅動、大模型支持,并能廣泛應用的人工智能產(chǎn)品。OpenAI為減輕ChatGPT的倫理風險,開發(fā)了產(chǎn)品部署流程、基于人類反饋的強化學習(Reinforcement Learning from Human Feedback,RLHF)等管理和技術工具。然而,ChatGPT還是引發(fā)了人機關系的新挑戰(zhàn)、放大了人類社會固有的倫理問題。

  從“人——機”關系角度看,ChatGPT對人與機器的情感關系、人的勞動價值、人的主體意識等人機關系倫理形成沖擊。雖然ChatGPT不屬于強人工智能,但ChatGPT已在教育、金融、法律、游戲等不同領域展開豐富實踐應用。同時,業(yè)界推測ChatGPT依托的大模型可能已經(jīng)出現(xiàn)涌現(xiàn)能力(Emergent Ability),人工智能的發(fā)展走向更多未知,人機關系的協(xié)調(diào)出現(xiàn)諸多新挑戰(zhàn)。一是,語言體系豐富、能夠聯(lián)系上下文進行對話、具備“角色扮演”功能的ChatGPT可作為陪伴者和用戶進行實時互動,人類對機器產(chǎn)生情感和依賴的可能性增加,影響人的心理狀態(tài)。二是,能夠進行文字生成、代碼生成、策略推薦等工作的ChatGPT引發(fā)人類對于勞動替代的憂慮,伴隨ChatGP開放API接口,更加豐富的應用場景和功能將可能對更多行業(yè)的從業(yè)者產(chǎn)生沖擊。三是,智能機器的快速發(fā)展對人的文化創(chuàng)造產(chǎn)生沖擊。ChatGPT能做到智能寫詩,但卻可能消解人的創(chuàng)作熱情;ChatGPT在文本生成方面的誤用濫用會將可能影響知識學習的過程,對人類智識的提高產(chǎn)生負面影響。

  從“人——人”關系角度看,基于大數(shù)據(jù)訓練的ChatGPT能放大人類社會固有的偏見,并可能因為技術濫用引發(fā)社會信任危機。一是,互聯(lián)網(wǎng)數(shù)據(jù)記錄了人類社會潛在的歧視與價值對抗,ChatGPT可能輸出明顯具有偏見的對話內(nèi)容,不僅影響用戶的判斷,更可能因為大量文本的廣泛傳播應用,加深社會偏見。二是,ChatGPT選取出現(xiàn)概率較大的語料進行內(nèi)容生成,模型為追求內(nèi)容的準確性可能以喪失文化的多樣性為代價,對人類社會的價值多樣性形成挑戰(zhàn)。三是, ChatGPT具有強大的自然語言處理能力,能夠“一本正經(jīng)地說”,但由于其數(shù)據(jù)和算法限制,又有“胡說八道”的可能性。然而,為回應用戶需求,ChatGPT能夠批量生產(chǎn)大量虛構信息,且無法控制生成內(nèi)容的誤用和濫用。同時,合成文本相較圖片、聲音等更具傳播優(yōu)勢,也更難判斷其是否屬于人工智能生成內(nèi)容。對ChatGPT的誤用和濫用將對人與人之間基于信賴的交往產(chǎn)生沖擊。

  三、 生成式人工智能倫理治理的未來展望

  以ChatGPT為代表的人工智能技術發(fā)展可能將人類社會帶入新的階段,人工智能倫理治理的目標在于鼓勵技術的良性發(fā)展,為可持續(xù)的創(chuàng)新提供保障。

  企業(yè)發(fā)揮人工智能倫理治理的主體作用。企業(yè)在人工智能倫理治理中從倫理意識、機制設置、技術開發(fā)等方面發(fā)揮最基礎和最主要的作用。一是,加強人工智能倫理治理意識。企業(yè)通過明確人工智能倫理原則、建立人工智能倫理審查機構、明晰人工智能倫理審查流程等,形成人工智能倫理治理從意識到實踐的落地機制。二是,細化和完善人工智能產(chǎn)品的全流程管理。如企業(yè)可在設計研發(fā)階段,即評估技術和產(chǎn)品的倫理風險;在測試階段,將產(chǎn)品從封閉環(huán)境逐步引入開放復雜的社會環(huán)境,不斷彌補產(chǎn)品倫理漏洞,將倫理風險控制在發(fā)展早期;在產(chǎn)品上線后,通過使用情況審查、速率限制等方法,減輕產(chǎn)品濫用可能性;最后,對倫理事故進行詳細的回顧審查。三是,通過技術手段提升倫理治理能力。企業(yè)可通過開發(fā)數(shù)據(jù)偏見和公平性評估工具、模型安全評估工具等加強人工智能倫理風險的技術應對。

  多主體參與人工智能倫理治理的合作機制。人工智能倫理治理是用戶、企業(yè)、行業(yè)等多方主體的協(xié)作。一是,用戶在與人工智能的互動中提出現(xiàn)實世界的問題,為產(chǎn)品優(yōu)化提供數(shù)據(jù),并通過對產(chǎn)品風險漏洞的討論與反饋等協(xié)助生成式人工智能向善發(fā)展。二是,企業(yè)通過明晰人工智能技術缺陷、開源人工智能倫理治理工具等,為更多開發(fā)者提示人工智能產(chǎn)品的倫理風險,提供倫理治理方法和工具。三是,行業(yè)組織密切產(chǎn)業(yè)主體,通過團體指南、行業(yè)標準等方式推動行業(yè)對人工智能倫理治理共識的建立,促進行業(yè)自律。

  加強國際合作應對人工智能倫理風險。技術發(fā)展的全球性給數(shù)字時代的人類帶來機遇和挑戰(zhàn),人工智能倫理治理也成為國際治理合作的重要契機。政府間國際組織、國際學術團體、行業(yè)組織等在尊重各國、各領域人工智能治理的原則和實踐下,推動形成以增進人類福祉為目標的國際人工智能治理框架和標準規(guī)范。

【免責聲明】本文僅代表作者本人觀點,與CTI論壇無關。CTI論壇對文中陳述、觀點判斷保持中立,不對所包含內(nèi)容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。

相關閱讀:

專題

CTI論壇會員企業(yè)