中共建党101周年之际,位于安徽省的合肥国家科学中心人工智能研究院声称,其所开发的“智慧思政吧”AI系统,可判断党员的忠诚度。消息一出,引发中国网民一片骂声和舆论哗然。对此,多位人工智能(AI)专家表示,中共利用最新科技监控人民,已不是新闻,但其数位独裁技术现已进化到入眼入脑入心的全面监控程度,令人不寒而栗。
安徽合肥国家科学中心人工智能研究院7月1日于微信公众号公告,其已研发出一套人工智能(AI)系统,可助力党建。贴文称,这套名为“智慧思政吧”的AI设备,“利用人工智能技术抽取面部视觉表观特征、脑电特征、皮电特征并进行协同与融合,实现对党员接受思政教育时专注度、认可度、掌握度判断,从而了解思政教育的效果......(且)通过判断学习效果,引导科研人员进一步坚定感党恩、听党话、跟党走的信心和决心。”
不过,这则有关AI机器控制思想重大突破的讯息一出,立即引起舆论哗然,使得该院随即在网页和微信刪除贴文。但多日来,争议仍持续延烧,并引发中国异议人士圈的挞伐。
位于南台湾台南的成功大学政治系主任洪敬富在接受美国之音采访时表示,科技本为改善人类生活的最佳良方,但在中国,科技不仅呈“扭曲式”发展,也沦为党国的政治控制利器。他说,中共利用最新的AI技术,使其数位威权体制进化到“老大哥”对人民无孔不入的全面监控。
AI赋能 中共陷入独裁者的困境?
洪敬富说:“它(中共)其实借重新科技,为党国来所谓的赋能(empowerment),就是说,它从早期的人脸辨识,进化到入眼入脑入心。也就是说,它进入到深层次的运用,从早期这种社会信用制度的社会控制,已经进化到全面的控制。”
洪教授说,中共的社会维稳和党宣党建工作结合科技,进入新的智能阶段,将对党员和人民形成心理压力,并可能导致他们衍生自我审查或思想认知改变的现象。不过,他认为,这类科技威权的作法违反人性,最终可能造成党性和人性的割裂,反而让中共因此陷入“独裁者的困境”--高墙筑得越高,却反而尽失人心。
洪敬富说:“高墙筑得越高,其实就代表你(中共)一方面是担心你控制不住你的党员,你对你的党员不仅不信任,你也担心党员恐怕变得是表面一套,实际又另一套。所以凸显政治学所谓的‘独裁者的困境’:这个独裁者似乎掌握越多的权利,可是,你对于党员、你的人民,甚至你自己的党的那些干部,你越来越不信任,那不信任之后,你就越用科技的(手段)要抓住的,可是你会发现,抓不住人性。所有的政治制度如果离开人性,其实我觉得,就是没办法长久。”
美国之音以电邮致函合肥的人工智能研究院,希望取得对“智慧思政吧”成效的置评,但未获回应。美国之音也致电该院,但电话未接通,自动总机还回称“没有权限接受(发话方)呼叫。”
中共利用AI镇压民主 异议人士骂声连连
早在合肥的AI系统问世前,中国各地利用人脸辨识等AI技术来建构严密的监控或地方治理等应用就时有耳闻。例如,新疆的天眼辨识系统严密监控当地的维吾尔少数民族。又例如,去年底,河南省传出架设人脸辨识系统,追踪记者和国际学生等当局眼中的“可疑人士”。同一时间,上海浦东人民检察院则开始测试AI检察官,号称可根据案件口头描述,以超过97%的准确率起诉八种犯罪行为,包括信用卡诈骗、妨碍公务和寻衅滋事等。
中共近年还大量采购“1人1档”的AI软件,以升级人脸辨识系统,该软件可将民众的个资自动分类并进行分析,有效提升监控效率。
另据《澎湃新闻》报道,四川行政学院早于2017年就开发“智慧红云”,来评估党员学习教育的成效,当时也号称可“算出”党员的思想状况。
科技双面刃 AI监控侵犯隐私和人权
中国所建置的诸多AI系统,即便是用于监控,若正当使用,不无提高行政效率或打击犯罪的正面绩效。但这些系统往往遭中共滥用,成为维稳或打击异议人士和人权律师的工具。
多位因议题敏感而不愿透露姓名的人权律师和异议人士告诉美国之音,他们深受AI监控之苦。
一位异议人士说,他行经人行道的路边摄像头时,被AI人脸辨识出,然后就看着公安拿着手机,从警车下来,直接把他带走。
对此,位于北京的人权律师说:“如果让AI对社会进行控制,社会将会越来越僵化,越来越极端,对人民是一场走向进一步毁灭的灾难。”他说,因为不见容于当局,他无法使用微信微博,任何发文或网络登记也会遭秒删或被拒,无端被剥夺网络使用权能。他还说,以AI进行政治辨识,说明当权者越来越不相信人民。
另一位人权律师则说,他在看守所时,目睹警察非法采集在押人员的瞳孔、指纹和尿检等生物信息,以进行比人脸辨识更精准的管控,足不出户就能掌握对中共政权构成威胁者的行踪,非常“邪恶”。
根据一位人权律师的汇整,中共靠大数据对名列黑名单的维稳人口进行精准管控,包括在两会等特殊时间,限制他们的人身自由。另外,中国地铁普遍采用人脸识别进站,超过170个城市也开通“刷脸”缴税等服务,当局靠着这些大量的人脸信息,集中用于维护独裁体制的稳固性,也精准打压异议人士、宗教人士以及上访者。
AI话题火热 应用场景遭夸大
原籍中国、现已入籍台湾的网络工程师佐拉在接受美国之音采访时,也对中共利用数字化工具来强化暴政的行径,表达忧心。
佐拉说:“AI的话,在实际运作中,又会有一个问题,就是它会有判断错误的时候,通常我们面对这种AI判断错误的时候就会很无助。然后加上,中国是一个一党专政的国家,他们的社会治理的手段一直都是懒惰的。也就是说,不仅懒政、而且暴政,所以他们有时候在遇到问题的情况下,采取粗暴的方式去对社会进行治理,所以,我觉得,暴政加上这种数字化工具的话,可以增加他们的能力。(美籍犹太商人)乔治·索罗斯(George Soros)(曾)在公开场合批判中国,因为中国的话,它会利用机器学习或人工智能,然后对这个国家进行更全面的控制。所以,我们对这一点是非常担忧的。”
曾是中国知名公民记者的佐拉观察,中国人民应该大多反对利用AI来进行社会治理,但在中国言论审查的环境下,反对声浪只会零星出现,无法有组织地出现,当然也无法形成改变中共AI暴政的力量。
不过,佐拉质疑,AI的功效应不至于大到可判断党员的忠诚度。他表示,AI话题火热,中国有不少投资案夸大AI的应用场景,不过是想骗取科研经费。
独裁和AI民企互相拉抬 AI暴政成形?
但中国官方对AI软件的需求之高,确实为不少AI新创公司带来机会。
根据美国麻省理工学院(MIT)经济系助理教授马丁·贝拉加(Martin Beraja)与其他三位来自哈佛大学和伦敦政经学院的同侪于7月1日所发布的研究显示,独裁政权和AI民企的新创能力有互相拉抬的加乘效果,若长期发展下来,可能形成AI暴政(AI-tocracy)。
该报告称,独裁者靠着AI科技强化监控能力,而政府委托案则让AI民企得到资金挹注,并刺激其新创的能力。根据其调查,2013-2019年间有上千家中国AI民企曾承揽过政府委托案,他们比没有接受政府委托的同业,可以在两年内多开发出三种官方用的软件商品,或四种商用的软件商品。
贝拉加教授在接受美国之音采访时表示,虽然投资圈盛传,中国AI民企过分依赖政府合约的商业模式无法永续经营,但他们的研究发现,接受政府委托的AI民企新创能力颇佳,而且有能力跨足商业应用。
马丁·贝拉加说:“在承揽政府合约时,他们可以取得数据,以便开发官方用软件,该软件通常用于公安或犯罪防范之类的目的。这样的新创能力可扩及至商用,因为他们可以使用相同的官方数据,即便数据使用上有所受限,他们也可以用训练该数据的相同演算法,来开发民用的商用产品。”
例如,他说,在官方监控软件的开发基础上,AI民企可以据以开发出商用软件,让超市可以追踪客户在货架走动时的购物行为。
贝拉加教授说,在数据取得上,美国和中国AI民企的优势相当,但因为中国受到隐私的限制较少,反而成为发展AI领域的竞争优势。而且他们的最新研究发现,中国比美国出口更多的人脸辨识技术,虽然人脸辨识也是打击犯罪的正当工具,但他直言,非常忧心中国输出AI暴政,协助其他独裁政权压制人民。
马丁·贝拉加说:“我们注意到,较威权的国家或者民主意识相对薄弱的国家确实向中国进口更多的人脸辨识AI技术,远高于其他科技。在我看来,这可能代表这些科技被滥用于监控和镇压。”
对于中国利用锐实力(sharp power)向外输出AI暴政,成功大学的洪敬富和网络工程师佐拉也同表忧心,不过,他们说,科技独裁体制太极端,很难永续。
佐拉说:“他们(中国)这种技术手段,有可能输出到其他国家,会短时间输出到其他国家,但是,从长远来看,这样的治理方式是导致一个社会走向极端化,甚至导致整个群体走向癫狂,比如说,又重现文化大革命的那种疯狂的决策,最终导致它自己的系统崩溃。”
文章来源:VOA
没有评论:
发表评论
注意:只有此博客的成员才能发布评论。