在算法安全上,《導(dǎo)則》指出了3種風(fēng)險(xiǎn),包括算法模型存在的技術(shù)性缺陷可能導(dǎo)致人工智能系統(tǒng)無(wú)法正常運(yùn)行,算法設(shè)計(jì)者自身存在價(jià)值偏見(jiàn)導(dǎo)致人工智能系統(tǒng)無(wú)法正常運(yùn)行,以及因?yàn)樗惴ㄈ遮?ldquo;黑箱化”可能導(dǎo)致技術(shù)失控等問(wèn)題?!秾?dǎo)則》提出,應(yīng)通過(guò)政策和法律引導(dǎo),開(kāi)展人工智能算法安全的評(píng)估檢測(cè);推動(dòng)技術(shù)倫理的算法導(dǎo)入,要求人工智能開(kāi)發(fā)者設(shè)計(jì)高可解釋性的智能系統(tǒng);同時(shí),加強(qiáng)智能算法的透明監(jiān)督,人工智能企業(yè)、行業(yè)應(yīng)建立相應(yīng)的算法監(jiān)管體制,保持與政府監(jiān)管的協(xié)同。
數(shù)據(jù)安全則涉及數(shù)據(jù)隱私、數(shù)據(jù)保護(hù)和數(shù)據(jù)質(zhì)量三方面,《導(dǎo)則》強(qiáng)調(diào),要加強(qiáng)數(shù)據(jù)安全立法和執(zhí)法,對(duì)采集和使用敏感個(gè)人數(shù)據(jù)的人工智能企業(yè)/行業(yè)須加強(qiáng)法律和行政監(jiān)管;豐富人工智能技術(shù)發(fā)展路徑,通過(guò)政策手段支持基于小數(shù)據(jù)的人工智能算法技術(shù);并提升人工智能數(shù)據(jù)資源管理水平,促進(jìn)公共部門和私營(yíng)部門數(shù)據(jù)資源共享和流通。
對(duì)利用人工智能進(jìn)行創(chuàng)作而產(chǎn)生的知識(shí)產(chǎn)權(quán)問(wèn)題,《導(dǎo)則》提出,將加強(qiáng)人工智能算法的專利保護(hù),鼓勵(lì)人工智能數(shù)據(jù)開(kāi)放性保護(hù),并促進(jìn)人工智能作品的知識(shí)產(chǎn)權(quán)化。對(duì)因人工智能的應(yīng)用導(dǎo)致社會(huì)結(jié)構(gòu)性失業(yè)等問(wèn)題,《導(dǎo)則》從法律層面提出了應(yīng)對(duì)策略,包括出臺(tái)法律法規(guī),對(duì)面臨人工智能技術(shù)替代的行業(yè)和職業(yè)進(jìn)行監(jiān)管和救助;加快人工智能新興勞動(dòng)力培養(yǎng);加強(qiáng)人工智能時(shí)代社會(huì)收入分配調(diào)整,對(duì)遭遇人工智能沖擊的傳統(tǒng)行業(yè)勞動(dòng)力進(jìn)行保護(hù)和救助,提高社會(huì)二次分配的合理性與精準(zhǔn)性。
人工智能的法律主體模糊、人工智能責(zé)任的界定復(fù)雜,是困擾法律法規(guī)介入人工智能進(jìn)行有效監(jiān)管的難題?!秾?dǎo)則》明確,在當(dāng)前的弱人工智能時(shí)代,人工智能產(chǎn)品本身不具有獨(dú)立的法律主體資格,人工智能產(chǎn)品的定位是“工具”,人工智能設(shè)計(jì)者、生產(chǎn)者、運(yùn)營(yíng)者、使用者承擔(dān)法律主體責(zé)任,并按照過(guò)錯(cuò)程度分擔(dān)相應(yīng)法律責(zé)任。