
近日,北京日报、澎湃新闻等媒体刊文预警人工智能(AI)被滥用于实施违法犯罪行为,衍生出“套壳AI”、“AI换脸”、“AI造谣”等新骗局、新套路。
人工智能的滥用主要包括以下3各方面:
一是“套壳AI”情况突出。如“ChatGPT在线”公众号,以ChatGPT(人工智能技术驱动的聊天机器人)官方标识高度相似的图标作为头像,诱使网民充值使用,仅用两个月就吸纳超36万人的粉丝量,累计注册付费用户4231人,获利12万余元。后续该公司被上海市市场监管部门依法查处。
二是“AI换脸”诈骗兴起。AI技术的迭代升级让不法分子借助智能AI换脸和拟声技术,轻松实现远程视频诈骗。记者调查发现,最近多地出现的AI换脸诈骗案件,均具备定制性、迷惑性等特征。不少业内专家表示,随着多模态人工智能的探索和出现,人们可能陷入“眼见也不一定为实”的困局。
三是“AI造谣”需警惕。当前AIGC技术已在文本生成、图片创作等方面广泛应用,输入关键词即可由AI快速生成图片或文章。但一些用户为博眼球、蹭热度,却将人工智能技术用以编“伪消息”、造“假通报”,让“AI谣言”在网络上肆意传播,如广西网民编造“新疆地震”、四川网民编造“贵州女婴被弃”等,不仅给网络安全带来严峻挑战,也严重扰乱社会秩序。
对此,中国行政法学研究会常务理事、华东政法大学教授沈福俊建议:
一是加强监管。考虑到立法的滞后性,监管部门还需更加关注新技术发展对市场的影响,加大事前监管力度,充分运用现有的法律法规实施有效监管,切莫使新问题隐匿在“监管盲区”。
二是加大技术能力建设。对此类AI换脸和AI拟声的恶性诈骗案件,若只依靠传统监管手段已不能防堵,监管部门在提升自我科技能力储备的同时,有必要引入新兴技术,探索用AI技术监管AI的可能。
三是加大对“AI谣言”的整治。一方面,提高自媒体经营者的法律意识,从源头减少此类“AI谣言”的产生;另一方面,监管部门也要加强相关案件的宣传推广,提高网民对“AI谣言”的鉴别力。


