登录通行证
欢迎注册帐户
欢迎找回帐户

联盟动态

返回 新闻详情

联盟动态

Sora大模型爆火,再度引发对AI潜在风险的关注

发布时间:2024-03-25

作者:中国信通院

近期,OpenAI发布首个视频生成模型Sora,再度引起科技界的震撼。据介绍,Sora可根据文本指令生成长达60s的视频,创建具有多个角色、特定类型运动以及准确的主题和背景细节的复杂场景。Sora大模型的出现推动了AI多模态领域的飞跃式发展,被认为将颠覆视频内容的生成方式。但随着Sora等大模型的开放和应用,AI生成技术使用的门槛持续降低,也进一步增加了各界对人工智能安全与合规的担忧。

Sora等大模型技术在加速迭代的同时,也将带来一系列潜在的风险。其中,“深度伪造”技术利用机器的深度学习、实现了图像、声音、视频的篡改、伪造,可产生高度逼真且难以辨识的内容。由此生成的信息可能包含色情、暴力、虚假新闻等,污染网络言论环境,对公众认知和判断造成严重干扰。
在当前人工智能技术高速发展的大背景下,我国一贯高度重视人工智能治理,不断加强人工智能安全合规相关的法律法规。2023年1月,我国首部深度合成领域的专门法规《互联网信息服务深度合成管理规定》施行。规定要求,深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。2023年7月,我国颁布的《生成式人工智能服务管理暂行办法》,进一步明确将对生成式人工智能服务进行“分类”和“分级”监管,深度伪造服务的提供者必须对使用该产品生成的内容负责等。
除了依赖法律手段,政府和企业也一直在积极寻求通过技术手段制约技术,例如,利用数字水印技术对AI生成的内容进行标识,以及开发AI生成内容检测模型来识别和处理不合规内容。近年来,中国人工智能产业发展联盟(AIIA)安全治理委员会在人工智能安全合规方面进行了广泛深入研究,形成了涵盖内容审核、深度合成检测、大模型安全等多个方向的标准评测体系,同时也在为生成式人工智能服务提供者提供具备强鲁棒性的内容隐式标识服务,全方位助力各方提升安全合规能力。欢迎有意向的企业接洽合作,共同推动人工智能技术的安全、合规与可持续发展。
图片
咨  询
图片

徐   伟 

15175152531  xuwei3@caict.ac.cn

陈   杰 

13661070401  chenjie7@caict.ac.cn

陈文弢 

18500022046  chenwentao@caict.ac.cn