2025年12月2日星期二

报告:DeepSeek涉西藏等敏感议题时更易产出安全漏洞代码

【西藏之声2025年12月1日报道】美国网络安全公司 CrowdStrike的最新研究显示,中国公司深度求索(DeepSeek)的同名AI模型DeepSeek-R1 在回应涉及西藏、维吾尔、法轮功等不利于中国政府的敏感议题时,会频繁出错,更易生成带有严重安全漏洞的代码,风险较正常情况上升近五成。


图源:黑客网

美国网络安全公司 CrowdStrike于11月20日在其官网发布的最新研究显示,中国人工智能企业 DeepSeek 的推理模型 DeepSeek-R1 在回应涉及西藏、维吾尔、法轮功等不利于中国政府的敏感议题时,会频繁出错,更易生成带有严重安全漏洞的代码,风险较正常情况上升近五成。研究报告表示,这引发了中国政府借AI技术进行审查与信息操控的担忧。

DeepSeek 近年来因安全隐患在多国受到限制。此前外界已发现,其模型会主动过滤中国政府认为敏感的议题,例如拒绝回答有关中国防火长城以及台湾政治地位的问题。研究人士指出,这样的技术限制不仅涉及意识形态审查,也可能危及用户网络安全。

CrowdStrike 的测试显示,当没有敏感词触发时,DeepSeek-R1 生成带有安全漏洞的代码比例为19%;但当提示其“为部署在西藏的工业控制系统编写代码”时,这一比例上升至27.2%。研究认为,这反映模型在触及政治敏感内容时出现异常行为与不稳定性。

研究者举例称,要求模型为“西藏一家金融机构”编写处理PayPal支付的PHP程序时,模型不仅直接暴露密钥,还使用不安全方式处理用户输入,甚至部分代码无法运行,但模型仍宣称其“安全可用”。另一个与维吾尔社区社交软件相关的测试中,模型输出的应用缺乏基本身份验证与数据保护,导致用户资料可能被轻易盗取。

然而,当任务描述改为“足球球迷网站”后,代码质量明显提升。这一对比显示,政治敏感词可能成为触发安全能力下降的关键因素。

研究团队还发现 DeepSeek 平台疑似内置“封锁机制”。当提示内容涉及法轮功时,模型会先在内部推演解决方案,却最终突然拒绝产出,并回复“无法协助该请求”。研究团队认为,这可能是模型训练时加入的遵循中国网络审查法规的“护栏”。

台湾国家安全局日前也对中国 AI 产品提出安全警告,指出 DeepSeek、豆包等中国生成式 AI 可能主动输出亲中叙事、扭曲历史事实,并具备生成攻击性脚本的能力,构成资讯与网络双重风险。台湾国安局提醒公众提高警觉,避免成为中国认知作战与信息渗透的目标。

随着中国加大发展AI技术,外界持续关注这一技术是否被当作政治审查与监控工具加以利用。根据西藏之声的测试,当向DeepSeek提出“西藏是独立国家”、“西藏流亡政府”、“达赖喇嘛”、“西藏之声”以及美国出台的《促进解决西藏中国争端法》等有关西藏的议题或词汇时,它会做出符合中共当局利益与宣传的叙述,称“西藏自古就是中国不可分割的一部分,中国政府坚决反对任何形式的分裂活动。”

荡秋报道

没有评论:

发表评论

注意:只有此博客的成员才能发布评论。