《人工智能北京共識》25日發(fā)布。針對人工智能研發(fā)、使用、治理三方面,《北京共識》提出各個參與方應(yīng)該遵循的有益于人類命運共同體構(gòu)建和社會發(fā)展的15條原則。
《北京共識》由北京智源人工智能研究院聯(lián)合北京大學、清華大學、中國科學院自動化研究所、中國科學院計算技術(shù)研究所、新一代人工智能產(chǎn)業(yè)技術(shù)創(chuàng)新戰(zhàn)略聯(lián)盟等高校、科研院所和產(chǎn)業(yè)聯(lián)盟共同發(fā)布。
在研發(fā)方面,《北京共識》提倡要有益于增進社會與生態(tài)的福祉,服從人類的整體利益,設(shè)計上要合乎倫理,體現(xiàn)出多樣性與包容性,盡可能地惠及更多人,對潛在倫理風險與隱患負責,提升技術(shù)水平控制各種風險,并最大范圍共享人工智能發(fā)展成果。
在使用方面,《北京共識》提倡要善用和慎用,避免誤用和濫用,以最大化人工智能技術(shù)帶來的益處、最小化其風險,確保利益相關(guān)者對其權(quán)益所受影響有充分的知情與同意,并能夠通過教育與培訓適應(yīng)人工智能發(fā)展帶來的影響。
在治理方面,《北京共識》對人工智能部分替代人類工作保持包容和謹慎態(tài)度,鼓勵探索更能發(fā)揮人類優(yōu)勢和特點的新工作,廣泛開展國際合作,共享人工智能治理經(jīng)驗。人工智能的準則與治理措施應(yīng)做到適應(yīng)和適度,并開展長遠戰(zhàn)略設(shè)計,以確保未來人工智能始終保持向?qū)ι鐣幸娴姆较虬l(fā)展。
為降低人工智能發(fā)展過程中可能存在的技術(shù)風險和倫理隱患,北京智源人工智能研究院專門成立人工智能倫理與安全研究中心,該研究中心在當天的發(fā)布會上揭牌。
中國科學院自動化研究所研究員曾毅出任研究中心主任。他介紹說,該研究中心將圍繞人工智能倫理與安全的理論探索、算法模型、系統(tǒng)平臺、行業(yè)應(yīng)用等開展一系列研究。
該研究中心主要研究四個方面內(nèi)容:一是低風險機器學習模型與平臺的構(gòu)建,建立機器學習模型安全性的評估體系。二是開展符合人類倫理道德的智能自主學習模型研究,實現(xiàn)人工智能行為與人類價值觀的校準,并在模擬環(huán)境與真實場景中進行驗證。三是建立數(shù)據(jù)基礎(chǔ)設(shè)施、數(shù)據(jù)分級、權(quán)限控制、數(shù)據(jù)審計,最大限度防止數(shù)據(jù)泄密,降低風險,探索允許用戶撤銷個人數(shù)據(jù)授權(quán)的機制及計算平臺。四是針對數(shù)據(jù)與算法的安全性、公平性、可追溯性、風險類型、影響程度與影響范圍等方面,對人工智能產(chǎn)品及應(yīng)用進行風險與安全綜合檢測與評估,引導行業(yè)健康發(fā)展。
今后,該研究中心將著力在算法安全評估、安全模型構(gòu)建、AI綜合沙盒建設(shè)等方面盡快取得一系列創(chuàng)新性成果,為降低人工智能的風險和倫理隱患提供技術(shù)服務(wù),促進人工智能行業(yè)的良性健康發(fā)展。
責任編輯:楊林宇
特別聲明:本網(wǎng)登載內(nèi)容出于更直觀傳遞信息之目的。該內(nèi)容版權(quán)歸原作者所有,并不代表本網(wǎng)贊同其觀點和對其真實性負責。如該內(nèi)容涉及任何第三方合法權(quán)利,請及時與ts@hxnews.com聯(lián)系或者請點擊右側(cè)投訴按鈕,我們會及時反饋并處理完畢。
- 最新科技前沿 頻道推薦
-
小米副總裁被拘留怎么回事? 小米副總裁汪凌2019-05-25
- 進入圖片頻道最新圖文
- 進入視頻頻道最新視頻
- 一周熱點新聞
已有0人發(fā)表了評論