AI写作假新闻闹出大乌龙 新技术更需要新监管
据浙江之声官微消息,2月16日,一则“浙江省杭州市政府3月1号取消机动车依尾号限行”的“新闻”在网上传开了,这条看起来没头没尾的“新闻”一时间还真让不少人信以为真了。2月17日,杭州警方证实消息不实,警方已介入调查。
很快这起乌龙事件的源头也被找到了,原来是杭州某小区业主在群众讨论最近非常热门的AI聊天机器人chatgpt时,一位业主开玩笑说自己要用chatgpt来写一条关于杭州取消限行的新闻稿,随后将chatgpt生成的文章发布在了群中。结果被群内不明真相的其他业主截图转发了,因此在网上流传开来,引起了误会,该业主后续也在群中表示了歉意。
这起乌龙事件引发了不少网友的讨论,从性质上来说,这条假新闻属于谣言,但另一方面,这个错误究竟应该谁来负责又引发了不少网友讨论。一方面有观点认为,应该由截图的人负责,该业主已经在群里说了自己要用chatgpt来写个“新闻”,截图转发的人没有看上下文就转发到公开的网络平台,导致了错误信息的传播。另一方面也有观点认为发布人也应当承担责任,如果没有发布人的一时兴起,用AI来编造了一条像模像样的假消息,也不会造成群内其他人的误会。
早前就曾有海外研究机构对chatgpt写作表示隐忧,担心它将会成为谣言制造机。人工智能快速迭代所带来的一系列伦理、道德问题要如何从法律层面应对解决,似乎也还处于探索的初级阶段。2022年我国出台了《互联网信息服务算法推荐管理规定》,首次提出来人工智能的算法应当坚持社会主义主流价值观,不能利用算法危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益。
今年1月10日起施行的《互联网信息服务深度合成管理规定》中明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。
AI技术迭代给监管带来了新的挑战,数据安全漏洞带来的隐私风险如何规避,AI系统中哪些内容应该被列入高风险区,“眼见不为实”的深度伪装要如何识别,深度伪装造成的危害要怎么处理,人工智能应当适用怎样的伦理规则……2021年,欧盟委员会曾提出人工智能规则法案,日前亦有消息称《欧盟人工智能法案》将于三月初进行讨论,但该法案的推进遭遇了阻力。
或许就像世界上出现第一辆汽车时一样,当第一辆汽车上路时也曾造成过无数混乱,但如今也有了完善的交通法规约束监管,车祸虽然仍然无法避免,但一场交通事故背后的权责划分却有法可依。人工智能新技术就像刚刚诞生的汽车,当新的监管方案也上了路,这辆“汽车”才算是稳当了。
扬子晚报/紫牛新闻记者 沈昭
《扬子晚报》2023年2月20日A10版
版权声明:凡注明“来源:中国西藏网”或“中国西藏网文”的所有作品,版权归高原(北京)文化传播有限公司。任何媒体转载、摘编、引用,须注明来源中国西藏网和署著作者名,否则将追究相关法律责任。