编者按:《CDT报告汇》栏目收录和中国言论自由及其他人权问题相关的报告资讯。这些报告的来源多种多样,包括机构调查、学术研究、媒体报道和网民汇集等等。也欢迎读者向我们推荐值得关注的报告。

中国数字时代本周推荐媒体:

CHINA Books Review(中国书评):是一份在线出版物,将提供与中国图书相关的信息、见解和智慧的评论。该书评网站由中国连线 (The Wire China)亚洲协会美中关系研究中心 (Asia Society’s Center on U.S.-China Relations) 共同发起。该网站将免费提供由知名作家撰写的书评、作者访谈、编辑节选,以及更多类似《纽约书评》的一般性文章,并且将重点关注有关中国和来自中国的书籍以及更广阔的汉语世界。

一、中国AI模型国际扩张之际,审查机制与官方叙事一同向世界输出

人工智能 (AI) 正在迅速成为全球信息传播的重要渠道。在这个过程之中,中国的AI模型也逐渐走向世界,被一些西方国家的用户所接受。

然而,中国问题研究者莎拉·库克 (Sarah Cook) 近日发表了一篇文章,引用了至少三份研究报告指出,中国开发的大语言模型在输出信息时,往往同时嵌入政治宣传与内容审查机制,这种影响正随着中国AI产品的全球扩散而扩大。

img

莎拉·库克专栏UnderReported China截图

文章指出,研究者在测试中发现,这些模型在涉及政治、安全或国际议题时,经常提供带有明显倾向的回答。库克写道,这些模型“嵌入了中共的内容控制机制”,其影响范围已经超出中国国内政治议题,延伸到欧洲与美国的安全问题。比如,在爱沙尼亚外国情报局2026年发布的国际安全报告中,研究人员发现:“在讨论与爱沙尼亚安全相关的问题时,DeepSeek 会隐瞒关键信息,并在其回答中插入中国宣传内容。”

其他两份报告分别是:非营利组织“政策基因组” (Policy Genome) 对俄罗斯入侵乌克兰事件描述所做的简要审计,以及由瑞典心理防御局发布、由中国媒体项目 (CMP) 研究人员撰写的更为详细的研究报告。

作者在仔细阅读了近日发表的这三份报告后,总结了“与中国来源的大型模型相关的四个关键动态”。

首先,这些模型经常融入中国官方宣传,有时甚至是无缘无故的。例如,在涉及乌克兰战争的问题时,一些中国AI模型会重复中国政府的外交立场,对俄罗斯的责任描述含糊,甚至将部分西方国家描绘为冲突升级的主要原因。库克指出,这类回答模式并非偶然,而是源于训练数据和模型设计中的政治限制。

其次,内容控制涉及国家安全和公共安全的重要话题。“除了与乌克兰战争相关的扭曲事实外,中国的人工智能模型还会加剧网络安全风险和其他漏洞。当被问及中国技术的安全性时,DeepSeek 给出了听起来很官方、很专业的可靠性保证,却只字未提任何已记录在案的黑客攻击、网络间谍活动或跨国镇压案例。”

此外,这些影响不仅限于最初的模型,还扩展到基于这些模型构建的更广泛的应用之中。

由于中国开发的模型是开源的,而且比 OpenAI 或 Anthropic 等公司的专有模型便宜得多,因此世界各地的开发者都将其作为新工具的基础层。CMP 的研究人员报告称,在撰写本文时,13 个功能最强大的开源模型中,有 7 个来自中国公司。

最后一点,作者指出,AI 模型的回答“因语言、版本和时间范围而异”。与大多数人工智能测试一样,结果并不一致。爱沙尼亚的报告指出,随着问题越来越接近当下,关于爱沙尼亚相关话题的回答变得“越来越意识形态化、含糊其辞且晦涩难懂”。Policy Genome 的审计针对来自不同国家的六个模型(包括 DeepSeek)就乌克兰战争提出的七个问题进行了分析,发现英语和乌克兰语的回答大多准确,但 DeepSeek 的一些俄语回答却支持克里姆林宫的论调或引入了误导性细节。其结论揭示了其中的细微差别:

作者称,这种审查机制并非单纯的技术问题,而是中国信息治理体系在人工智能时代的延伸。长期以来,中国官方强调“舆论引导”,要求媒体与信息平台传播与政府政策一致的叙事,而 AI 系统正在成为新的执行工具。

库克认为,随着中国 AI 产品在全球市场的扩张,这些嵌入式的宣传和审查机制可能对国际信息环境产生更广泛的影响。她写道:“这些模型可能成为一种新的信息漏洞”,因为许多用户会把 AI 回答视为客观知识来源。

文章最后指出,这一问题对民主社会提出新的挑战。一方面,中国 AI 模型因成本低、性能强而迅速获得国际用户;另一方面,如果这些系统持续输出经过政治过滤的信息,可能在无形中塑造全球舆论环境。库克呼吁研究人员、政府和科技公司加强对 AI 模型的审计与透明度要求,以避免“审查与宣传被嵌入下一代信息基础设施”。

二、英国发展研究所:非洲“智慧城市”监控迅速扩张,中国AI监控技术成主要来源

英国发展研究所 (Institute of Development Studies,IDS) 3 月 12 日发布了一份研究报告。该报告对非洲 11 个国家的智慧城市监控系统进行了系统梳理,结果发现非洲正经历一场快速扩张的数字监控浪潮,而中国企业与金融机构在这一体系中扮演了核心角色。

img

报告封面截图

报告警告,大规模公共空间监控正在改变非洲的政治与社会环境。研究指出:“非洲大陆正在经历数字监控的大规模扩张,这种趋势正在侵犯公民的隐私权。”研究团队在阿尔及利亚、埃及、肯尼亚、卢旺达、乌干达、赞比亚等 11 个国家展开调查,发现各国政府在“智慧城市”或“安全城市”项目中投入巨大资金。仅在这 11 个国家,政府在面部识别与车牌识别技术上的支出就已超过 20 亿美元,而真实规模可能更高。

报告指出,中国正是这些监控系统的最大供应方。“中国向研究涉及的所有 11 个国家提供了智慧城市监控技术。”典型项目模式通常由中国政策性金融支持,例如中国进出口银行提供约 2.5 亿美元贷款,同时要求采购中国企业设备。监控系统通常包括成千上万台摄像头以及数据中心,由华为或中兴建设指挥控制中心,而海康威视提供摄像设备。

比如,肯尼亚是非洲最早采用中国“安全城市”系统的国家之一。2014 年,该国政府、当地电信公司萨法利通信公司 (Safaricom) 和华为合作推出了全国公共安全通信与监控系统。该系统原本旨在打击犯罪,然而许多批评人士称该系统也被用于监控示威组织者和政治反对派。

此外,尼日利亚则是非洲最大的监控技术买家之一。报告指出,该国在面部识别和自动车牌识别系统上的支出超过 4.7 亿美元。乌干达的系统规模也迅速扩大。该国在 2018 年部署华为摄像网络后,监控系统已覆盖全国主要城市,并具备面部识别、车辆追踪以及自动交通执法功能。

然而,英国发展研究所发现,这些系统并未明显降低犯罪率。报告直言:“我们没有发现任何令人信服的证据表明智慧监控减少了恐怖主义或严重犯罪。”相反,研究团队引用人权组织的话表示,这些技术很可能被用于政治控制。例如,“监控反对派领袖、和平异议人士和边缘群体,以加强执政者的权力”。

研究还发现,多数国家缺乏监管框架。许多国家虽有数据保护法,但几乎没有专门针对公共空间视频监控、面部识别或人工智能系统的法律。更严重的是,几乎所有国家在部署监控系统前都未进行正式的人权风险评估。

最后,报告表示,公共安全监控并非完全不可接受,但必须受到严格限制。研究团队建议,政府应在部署监控系统前进行人权影响评估,建立明确法律规范,并设立独立监督机构,以确保监控“合法、必要且相称”。他们警告:“如果缺乏透明度与监督,智慧城市技术可能延续殖民时期以来的监控传统——只是从人工监视升级为人工智能驱动的全天候数字监控体系。”

三、西藏之声:《民族团结进步促进法》,旨在加速同化与镇压非汉族群

3 月 12 日,中国人大通过了一项备受争议的法律——“民族团结进步促进法”。该法律一经推出就引发了国际舆论哗然,批评人士普遍认为该法律“将进一步侵蚀非汉族群体的身份认同,并可能将任何质疑这种‘统一’的人定性为可受法律惩处的分裂分子”。

img

声明封面截图

西藏之声在法律发布前夕就表示,该议案要求“少数民族”儿童从学前教育起学习普通话,并赋予政府跨境追责权,“旨在加速同化与镇压非汉族群”。

《民族团结进步促进法(草案)》共计 62 条,于 2025 年 9 月 8 日提交全国人民代表大会。国际人权团体人权观察指出,议案如获通过,藏语等非汉语言的使用空间将进一步缩小,境内外异议人士将受到更严重的打压与报复。

该法案要求少数民族儿童从学前教育起必须学习普通话,并在 15 岁前“基本掌握”。法案第 61 条赋予政府跨境打击的法律依据,要求追究境外个人或组织“破坏民族团结、煽动民族分裂”的法律责任。

人权观察表示,新法草案企图取消现行《民族区域自治法》(1984 年通过)明文保障的少数民族“使用和发展自己的语言文字”的权利,转而强调汉语普通话的主导地位。

该团体表示,这部新法将建立广泛法律框架,为中国当前从境内到境外对少数民族的镇压和强迫同化提供正当理由。一旦通过,这部法律可用来加强意识形态管控,以取消少数民族语言权利等手段打压少数民族和宗教少数群体,并促进对中国境外的控制。

类似表态还有,维吾尔人权项目在接受采访时表示,这些做法“违反了国际人权标准,并加剧了新疆正在发生的种族灭绝和反人类罪行”。

南蒙古人权信息中心主任恩格巴图·托戈乔格在一份声明中表示,要求在公共生活中掌握普通话也可能限制蒙语使用者就业的机会。他解释说:“从经济角度来看,这将使蒙人边缘化,因为汉语水平成为获得就业和晋升的门槛”。