前言
第1章 大語(yǔ)言模型安全及其挑戰(zhàn)1
1.1 大語(yǔ)言模型的發(fā)展歷史與技術(shù)現(xiàn)狀2
1.1.1 序章:起源與早期形態(tài)2
1.1.2 轉(zhuǎn)折:神經(jīng)網(wǎng)絡(luò)的興起2
1.1.3 現(xiàn)代巨人:GPT與BERT的時(shí)代3
1.1.4 技術(shù)現(xiàn)狀與應(yīng)用領(lǐng)域4
1.2 大語(yǔ)言模型安全的范疇5
1.2.1 大語(yǔ)言模型的技術(shù)安全:關(guān)鍵挑戰(zhàn)是什么5
1.2.2 大語(yǔ)言模型的監(jiān)管與合規(guī):面臨哪些關(guān)鍵問(wèn)題6
1.3 生成式人工智能安全的重要性6
1.3.1 提升大語(yǔ)言模型的社會(huì)信任和聲譽(yù)7
1.3.2 降低大語(yǔ)言模型的法律風(fēng)險(xiǎn)9
1.3.3 保護(hù)大語(yǔ)言模型的用戶數(shù)據(jù)隱私9
1.3.4 保障大語(yǔ)言模型服務(wù)的連續(xù)性10
1.3.5 提高大語(yǔ)言模型的系統(tǒng)穩(wěn)定性11
1.4 大語(yǔ)言模型安全的現(xiàn)狀與挑戰(zhàn)11
1.4.1 大語(yǔ)言模型的安全隱患與主要風(fēng)險(xiǎn)點(diǎn)12
1.4.2 大語(yǔ)言模型與國(guó)家安全風(fēng)險(xiǎn)14
1.4.3 大語(yǔ)言模型安全治理之道:發(fā)展與安全并重15
第2章 大語(yǔ)言模型技術(shù)層面的安全風(fēng)險(xiǎn)17
2.1 大語(yǔ)言模型的信息安全原則18
2.1.1 機(jī)密性18
2.1.2 完整性18
2.1.3 可用性18
2.2 傳統(tǒng)安全風(fēng)險(xiǎn)19
2.2.1 傳統(tǒng)網(wǎng)絡(luò)攻擊依然具有威力20
2.2.2 常見(jiàn)的傳統(tǒng)網(wǎng)絡(luò)攻擊方式21
2.3 識(shí)別和分析人類(lèi)意圖上的挑戰(zhàn)21
2.3.1 惡意意圖的識(shí)別難題22
2.3.2 AI生成虛假信息傳播23
2.3.3 利用AI進(jìn)行黑客攻擊24
2.4 大語(yǔ)言模型的固有脆弱性24
2.4.1 對(duì)抗攻擊25
2.4.2 后門(mén)攻擊29
2.4.3 Prompt攻擊30
2.4.4 數(shù)據(jù)投毒攻擊31
2.4.5 模型竊取攻擊32
2.4.6 數(shù)據(jù)竊取攻擊33
2.4.7 其他常見(jiàn)安全風(fēng)險(xiǎn)34
第3章 大語(yǔ)言模型監(jiān)管與合規(guī)的法律框架37
3.1 全球視野下的AIGC監(jiān)管現(xiàn)狀38
3.1.1 AIGC企業(yè)面臨的訴訟壓力38
3.1.2 針對(duì)AIGC企業(yè)的執(zhí)法調(diào)查屢見(jiàn)不鮮41
3.1.3 各國(guó)抓緊AIGC相關(guān)立法44
3.2 國(guó)內(nèi)的監(jiān)管體系45
3.2.1 國(guó)內(nèi)監(jiān)管體系概述45
3.2.2 國(guó)內(nèi)現(xiàn)行監(jiān)管政策梳理與總結(jié)48
3.2.3 國(guó)內(nèi)重點(diǎn)監(jiān)管政策解讀50
3.3 國(guó)外的典型法域54
3.3.1 歐盟54
3.3.2 美國(guó)68
3.3.3 英國(guó)73
3.3.4 新加坡75
3.3.5 加拿大77
3.3.6 韓國(guó)78
第4章 大語(yǔ)言模型知識(shí)產(chǎn)權(quán)合規(guī)81
4.1 著作權(quán)82
4.1.1 著作權(quán)概述82
4.1.2 AIGC生成物的著作權(quán)定性分析82
4.1.3 AIGC技術(shù)相關(guān)的著作權(quán)侵權(quán)風(fēng)險(xiǎn)85
4.1.4 典型案例分析88
4.1.5 小結(jié)99
4.2 開(kāi)源協(xié)議103
4.2.1 開(kāi)源協(xié)議概述103
4.2.2 開(kāi)源協(xié)議引發(fā)的侵權(quán)風(fēng)險(xiǎn)106
4.2.3 涉及開(kāi)源協(xié)議的相關(guān)案例107
4.2.4 涉及開(kāi)源協(xié)議的侵權(quán)風(fēng)險(xiǎn)防范措施109
4.3 專利權(quán)109
4.3.1 專利權(quán)概述109
4.3.2 AIGC場(chǎng)景下的專利權(quán)相關(guān)問(wèn)題110
4.4 商標(biāo)權(quán)112
4.4.1 商標(biāo)權(quán)概述112
4.4.2 AIGC場(chǎng)景下的商標(biāo)侵權(quán)113
4.4.3 人工智能生成物與商標(biāo)侵權(quán)113
4.5 商業(yè)秘密115
4.5.1 商業(yè)秘密概述115
4.5.2 AIGC場(chǎng)景下常見(jiàn)的商業(yè)秘密相關(guān)風(fēng)險(xiǎn)116
4.5.3 典型案例分析118
4.5.4 小結(jié)120
第5章 大語(yǔ)言模型數(shù)據(jù)合規(guī)123
5.1 模型訓(xùn)練階段124
5.1.1 數(shù)據(jù)采集124
5.1.2 數(shù)據(jù)質(zhì)量提升134
5.2 模型應(yīng)用階段137
5.2.1 告知同意138
5.2.2 個(gè)人信息權(quán)利行使138
5.2.3 收集兒童個(gè)人信息139
5.2.4 數(shù)據(jù)跨境139
5.3 模型優(yōu)化階段142
5.3.1 數(shù)據(jù)使用142
5.3.2 數(shù)據(jù)安全143
第6章 大語(yǔ)言模型內(nèi)容安全145
6.1 內(nèi)容安全監(jiān)管146
6.1.1 國(guó)內(nèi)視角下的監(jiān)管146
6.1.2 國(guó)外視角下的監(jiān)管147
6.2 內(nèi)容安全風(fēng)險(xiǎn)149
6.2.1 權(quán)利人提起的民事侵權(quán)責(zé)任149
6.2.2 監(jiān)管機(jī)構(gòu)提起的行政處罰150
6.2.3 刑事處罰150
6.3 內(nèi)容安全合規(guī)151
6.3.1 模型訓(xùn)練階段151
6.3.2 模型應(yīng)用階段155
6.3.3 模型優(yōu)化階段160
第7章 大語(yǔ)言模型算法合規(guī)163
7.1 算法合規(guī)框架概述164
7.2 算法備案164
7.2.1 法律依據(jù)及實(shí)施概況164
7.2.2 備案流程166
7.2.3 算法備案入口及角色167
7.2.4 備案所需準(zhǔn)備的文件及材料168
7.2.5 備案期限168
7.3 人工智能安全評(píng)估169
7.4 算法公開(kāi)透明170
7.5 算法生成內(nèi)容標(biāo)識(shí)173
7.6 算法反歧視176
7.6.1 算法設(shè)計(jì)178
7.6.2 訓(xùn)練數(shù)據(jù)選擇179
7.6.3 模型生成和優(yōu)化180
7.7 與算法有關(guān)的侵權(quán)181
7.8 算法合規(guī)要點(diǎn)總結(jié)185
第8章 大語(yǔ)言模型倫理安全187
8.1 大語(yǔ)言模型倫理:AI技術(shù)進(jìn)步的道德維度188
8.1.1 三個(gè)案例引發(fā)對(duì)AI倫理的思考188
8.1.2 人工智能倫理概述:一個(gè)復(fù)雜且涵蓋多方面的議題191
8.2 人工智能倫理的重要性191
8.2.1 提升公眾信任:大語(yǔ)言模型倫理規(guī)范的社會(huì)影響192
8.2.2 確保合規(guī)性:企業(yè)和組織遵守倫理規(guī)范的必要性192
8.2.3 面向可持續(xù)的未來(lái):倫理規(guī)范的長(zhǎng)期社會(huì)影響193
8.3 大語(yǔ)言模型倫理安全風(fēng)險(xiǎn)及成因分析194
8.3.1 主要的倫理風(fēng)險(xiǎn)194
8.3.2 倫理風(fēng)險(xiǎn)的成因195
8.4 我國(guó)人工智能倫理治理實(shí)踐195
8.4.1 我國(guó)人工智能倫理相關(guān)法規(guī)政策概述196
8.4.2 確立科技倫理治理體制機(jī)制198
8.5 大語(yǔ)言模型倫理風(fēng)險(xiǎn)應(yīng)對(duì)策略205
8.5.1 研究開(kāi)發(fā)者的責(zé)任205
8.5.2 設(shè)計(jì)制造者的責(zé)任206
8.5.3 部署應(yīng)用者的責(zé)任207
8.5.4 用戶的責(zé)任208
第9章 大語(yǔ)言模型的安全保障方案211
9.1 傳統(tǒng)技術(shù)層面的安全保障212
9.1.1 大語(yǔ)言模型在系統(tǒng)層面的安全挑戰(zhàn)212
9.1.2 大語(yǔ)言模型中可應(yīng)用的經(jīng)典安全技術(shù)214
9.1.3 應(yīng)用傳統(tǒng)安全實(shí)踐的經(jīng)驗(yàn)215
9.2 數(shù)據(jù)層面的保障策略217
9.2.1 數(shù)據(jù)收集階段面臨的安全挑戰(zhàn)218
9.2.2 訓(xùn)練階段的安全建議219
9.2.3 模型推理階段的安全建議220
9.3 可信屬性角度的安全防護(hù)策略221
9.3.1 大語(yǔ)言模型可信任的支柱222
9.3.2 人類(lèi)監(jiān)管和監(jiān)督223
9.3.3 技術(shù)健壯性和安全性223
9.3.4 隱私和數(shù)據(jù)治理224
9.3.5 透明度226
9.3.6 多樣性和公平性228
9.3.7 社會(huì)和環(huán)境變革229
9.3.8 問(wèn)責(zé)機(jī)制231
第10章 生成式人工智能未來(lái)展望233
10.1 技術(shù)視角看大語(yǔ)言模型安全的發(fā)展趨勢(shì)234
10.1.1 增強(qiáng)安全性與可靠性234
10.1.2 提高透明性與可解釋性235
10.1.3 優(yōu)化性能與效率236
10.1.4 應(yīng)對(duì)深度偽造技術(shù)237
10.1.5 區(qū)塊鏈技術(shù)的集成238
10.2 法律視角看大語(yǔ)言模型安全的發(fā)展趨勢(shì)239
10.2.1 全球數(shù)據(jù)保護(hù)法律法規(guī)在大模型領(lǐng)域的細(xì)化與完善240
10.2.2 全球范圍內(nèi)算法監(jiān)管框架的逐漸完善241
10.2.3 AI時(shí)代的知識(shí)產(chǎn)權(quán)244
10.2.4 倫理規(guī)范的法律化251