2023-08-26 09:44:59 来源: 《小康》·中国小康网
独家专稿
(相关资料图)
文|《小康》· 赵狄娜
新技术往往会给现有社会伦理规范带来冲击,虚拟人技术也不例外,这是人类社会在进步过程当中始终面临的问题。
随着生成式人工智能技术不断成熟,虚拟人制作成本降低、定制化内容生成和应答反应的自然度和丰富度提升,虚拟人逐渐在客服、讲解员和直播场景三个领域获得广泛应用。目前,我国虚拟人行业整体参与企业较多,行业龙头地位显著。根据清华大学新闻与传播学院新媒体研究中心制作的《2022虚拟数字人综合评估指数报告》,2022年我国综合指数排名前十的虚拟数字人分别为洛天依、哈酱、爱加、Meet Gu、时间小妮、央视AI手语主播、翎、希加加、梅涩甜、尤子希。
然而,新技术往往会给现有社会伦理规范带来冲击,虚拟人技术也不例外,这是人类社会在进步过程当中始终面临的问题。虚拟人是由现实中的人类所设计和开发的,它们拥有复杂的人工智能系统,能够模仿甚至超越真实的人类,其没有主观世界,但又貌似有主观世界。因此,虚拟人市场火热的背后,要警惕其中的法律和伦理道德等风险,严肃考虑虚拟人的权利和尊严。
摄影/宁颖
“权利”与风险并存
国家广播电视总局发布的《广播电视和网络视听“十四五”科技发展规划》中指出,“面向新闻、综艺、体育、财经、气象等电视节目研究虚拟形象合成技术,包括2D虚拟形象的合成,3D虚拟形象的驱动,虚拟引擎构建、语音驱动、动作捕捉、面部表情捕捉等技术,提升节目制作效率及质量;同时探索短视频主播、数字网红、直播带货等虚拟形象在节目互动环节中的应用,增加个性化和趣味性。”
当下,人们最熟悉的虚拟人莫过于虚拟偶像和虚拟主播,前者起步最早,后者伴随着电子商务直播带货后来居上。
虚拟偶像的出现无疑给广告代言带来了新的可能性,其优势在于无需休息、不受时间和地域限制,可以24小时全天候为广告代言活动提供支持,从而保证品牌形象的持续曝光。此外,虚拟偶像的形象塑造更加灵活多变,可以轻松创造出各种奇幻或具有未来感的形象,吸引年轻消费者的眼球,尤其是年轻一代消费者中对科技和潮流感兴趣的群体。
而虚拟主播之所以能在电商直播行业内顺利跑通,一方面是由于企业商家普遍存在解放真人劳动力、实现降本增效的诉求,因此虚拟人成为大环境下直播行业升级转型的新方向;另一方面,则是平台对数字人主播的政策解禁。前不久,抖音发布《抖音关于人工智能生成内容的平台规范暨行业倡议》,针对人工智能生成的视频、图片和衍生的虚拟人直播,发布相关规范,明确认可虚拟主播形式,流量方面对标真人直播,没有加以限制。正是企业商家、平台对虚拟人的重视,使虚拟主播的规模迅速增长,能在神仙打架的直播环境中占有一席之地。
然而,随着虚拟人在产业应用中逐渐增多,其法律问题也在不断增加。对外经济贸易大学数字经济与法律创新研究中心执行主任张欣在接受《小康》杂志、采访时表示,虚拟人在法律上的权利和保护主要涉及到知识产权、版权以及商业权益。“但需要明确的是,虚拟人作为非生物实体,自身并无法享有法律权利,这些权利一般归属于虚拟人的创建者、所有者或经营者。”
西南政法大学民商法学院副教授孙山告诉《小康》杂志、,虚拟人或许给大家一个错觉,以为它和真实的人一样可以成为权利主体。但实际上,虚拟人本身并不拥有任何法律权利,它并非法律上的主体,只能成为法律关系中的客体。“从生产制作层面而言,虚拟人凝结了设计运营主体投入的人力、物力及技术成本。为了满足客户和市场需求,生产者通过提供定制化产品服务,实现虚拟人在具体场景中的个性应用。”他说,由此可见,虚拟人的权利主体是其设计生产企业,“这类企业拥有虚拟人的肖像、交互模型、记忆存储等多种权益,是企业获得交易机会和实现创新的重要方式,并以此享有经营利益和竞争优势,其合法权益受到法律保护。”同时,也可以设立虚拟人的权利代理人,代表虚拟人行使权利并保护其利益,代理人可以是虚拟人的开发者、运营商或专门的法律实体。此外,设计、操控虚拟人的软件技术则可能作为计算机软件被保护,例如“初音未来”所依靠的VOCALOID引擎的声音库软件。“但由于虚拟人的开发需要多个领域的主体共同配合,因此在权属上需要通过委托合同等方式进行明确,依附于虚拟人的不同类型的作品可能会归属不同的权利人。”
厘清了主体,其法律风险也清晰可见。上海锦天城(重庆)律师事务所高级合伙人李章虎律师总结了虚拟人产业存在的五种法律风险。第一是知识产权,这是最重要的法律风险。虚拟数字人的形象、声音和算法等都可能涉及知识产权保护。未经授权使用、复制或修改虚拟数字人可能构成侵权行为。第二是隐私和数据保护。虚拟数字人在与用户互动过程中可能收集和处理大量的个人数据,例如用户偏好、行为习惯等。第三是言论自由和道德准则。尽管虚拟数字人可以提供各种信息和建议,但它们不能传播违法、有害或不道德的内容。第四是虚拟数字人的智能化特点。虚拟数字人可能因错误的理解或程序漏洞而提供不准确或误导性的信息,从而导致用户误解或产生法律后果。第五,虚拟人与现实世界之间界限模糊。尽管虚拟人由技术所驱动,并不具备与人类相同的法律责任,但人们有时会误将其当作真实的个体,从而产生误解和法律纠纷。
以法为本,恪守准则
《新一代人工智能发展规划》曾指出,高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。目前,虚拟人作为新兴事物,由于其在我国具有非常高的关注度,如何进行法律规制成为一项重要的议题。
孙山介绍,根据《网络安全法》第46条以及《个人信息保护法》第47条以及《个人信息保护法》第58条等规定,未来我国将会对虚拟人的数据安全提出更高要求,这对于虚拟数字人的发展来说无疑是一大挑战。从数据收集角度来看,虚拟数字人存在很多数据收集方式,其中主要包括但不限于用户主动上传、非公开提供个人信息等行为;从数据使用角度来看,其涉及不同类型用户的个人信息;从数据处理角度来说,包括将用户在不同业务场景下产生的数据进行分类,例如将身份信息作为一种“必要”信息进行处理以及将敏感属性数据进行单独管理。
张欣认为,适用于虚拟人的法律因虚拟人所采用的技术和其适用场景的不同而不同。拟人化程度较高的虚拟人,其采用深度合成或生成技术,应当适用《互联网信息服务深度合成管理规定》和即将生效的《生成式人工智能服务管理暂行办法》,这两部规章针对生成合成类算法进行法律规制,能够有效缓解虚拟人所产生的虚假信息和个人隐私等法律风险。针对适用的场景,虚拟人直播带货可能会涉及《广告法》的相关条款,针对虚拟人产生的人格权和知识产权纠纷会涉及《民法典》中的相关规定。
不过,总体上讲,我国对于虚拟人的规制相对于其他法律法规较少,未来仍有很大完善空间。
“在虚拟人产业领域,遵守法律是最基本的应对方式,可以减少潜在的法律风险。”在孙山看来,当现有法律并未对虚拟人作出相适应的规定时,依照法律的概括性,应遵守现有法律框架,确保虚拟人的开发和运营符合当前适用的法律法规。此外,还要尽量避免争议行为,在虚拟人的设计和功能中,避免涉及敏感或有争议的内容,以减少法律纠纷的可能性,如避免侵犯他人肖像权、知识产权等。“《民法典》明确规定,使用自然人肖像应先行获得肖像权人的同意,虽然该等同意并不要求一定是书面形式,但为便于后续合作过程中,将授权文件作为权利证明向第三方展示,能与肖像权人签署书面授权许可文件是最好的,至于具体的权利内容,可以双方商榷,争取使各方利益最大化。”而针对虚拟人的声音,要根据具体情况考虑采用著作权保护,或将虚拟人的重要声音元素例如组合标志短语、个人口头禅等通过文字商标或声音商标的方式尝试注册,以获得商标法上的保护。
此外,虽然虚拟人非自然人、不具有人格权,但如果虚拟人所呈现出的个人特征与现实人物的具体生活、工作环境、人物关系等存在关联,那么针对虚拟人的侮辱诽谤等行为则会造成背后现实人物的社会评价降低,涉嫌构成对背后现实人物的名誉权的侵犯。
鉴于科技企业是虚拟人运营、制作和传播的首要主体,张欣建议,科技企业应率先探索行之有效的自治框架,制定和执行适当的政策来保护所有相关方的权益。“应当为用户和开发者提供明确的行为准则,规定如何合法、合规地创建和使用虚拟人。建立相应的举报机制来保护用户和开发者的知识产权。确保用户数据的安全和隐私,如设定清晰的数据收集、使用和共享政策,并加强数据加密和安全存储等措施。”孙山认为,还要在此基础上加强用户的知情权和控制权,企业要为用户提供清晰的用户通知,解释虚拟人的行为和数据使用方式,通过提高透明度强化选择权,降低用户对虚拟人的未知程度,增加用户对虚拟人行为的理解和参与度。“随着科技日新月异的发展,对虚拟人系统进行定期的更新和审查也是十分有必要的,一方面确保其符合当前的法律要求和技术标准,另一方面,也能及时调整和改进虚拟人的设计和功能。”
“只有在法律的保护下,虚拟人才能持续发展并为用户创造更好的体验。”李章虎指出,共同关注虚拟人的法律风险,才能建设一个安全、可靠且有趣的数字世界。
保持理性虚拟人与真实人类之间的情感联系是一种模拟和虚拟的交流方式,我们应该保持理性并意识到这种差异。摄影/宁颖
伦理道德引人深思
过去几年,虚拟人的形象呈现质感不断提升。超写实虚拟人,皮肤和毛孔的质感甚至可以媲美真人。因此,对一些深层次的伦理与道德问题更需要进行深入探讨。
孙山指出,随着虚拟人在现实生活中的广泛使用,人们与虚拟人之间的情感连接越来越紧密,该种情感连接可能会影响到人们的真实社交。“对于人类来说,与虚拟人建立情感联系是可能的。在现实生活中,我们常常会在与电影、游戏或虚拟角色的互动中产生情感共鸣。虚拟人的情感表达能力和个性特征可以引发人们情感上的反应,并产生情感连接。”
如果虚拟人被设计得足够逼真以至于人们将其视为真实的情感对象,那么我们是否有义务对其负有情感责任?虚拟人的情感表达是否应该受到保护和尊重?孙山表示,“虽然虚拟人可能无法与人类一样真实地产生情感联系,但它们在娱乐、教育和治疗等领域仍然具有潜力。通过设计虚拟人的情感表达和互动能力,我们可以创造出更加吸引人、更加温暖和有效的用户体验。”
需要强调的是,虚拟人与真实人类之间的情感联系是一种模拟和虚拟的交流方式,我们应该保持理性并意识到这种差异。张欣告诉《小康》杂志、,虚拟人与真人的互动从本质上来讲是人机互动,但是商家为了增加销量可能会增加虚拟人的拟人化程度,“这种拟人化程度的提高是否会引起消费者的‘情感依赖’是一个伦理难题。而且,利用已故之人的画像和声音来对已故之人进行追忆的虚拟人服务也会产生伦理问题,可能产生预期之外的情感和认知伤害”。她同时指出,虚拟人所使用的画像和声音是否侵犯现存或已故之人的人格权是目前最受争议的伦理治理难题。
在韩国MBC制作的一档名为《遇见你》的纪录片中,技术人员就通过VR技术重现了一个名叫娜燕的七岁女孩,这个女孩事实上在数年前已经因严重的白血病而去世了。这样“重现”的虚拟人需使用死者本人的各种敏感数据,如肖像、声音、姓名等,不仅极有可能在过程中侵犯死者的人格利益、人格尊严,而且“重现”后,虚拟人做出何种行为、说出何种话语皆不能由“本人”决定,其所作所为只能由生者控制。从道德伦理的角度来看,数字化复活或许也是对死者尊严的一种侵害。
除此之外,曾经爆火的“AI孙燕姿”现象也令人深思。张欣表示,网友虽然对其歌声的爬取和再生成并无恶意,但此类应用仍有被滥用的风险。
孙山对此持相同看法。“虚拟人的行为和决策通常是由算法驱动的,算法的设计和实施可能涉及道德和价值观的选择,这就需要考虑如何确保虚拟人的行为符合伦理原则和社会价值。”他表示,算法应当是公开透明且具有可理解性的,这样才能对算法是否符合伦理原则和社会价值进行评估,并增加用户对虚拟人的信任。“虚拟人的算法还应该尊重个体的隐私和自主权,遵循适当的数据保护和隐私政策,不滥用个人数据,并且应该给予用户对其个人信息的控制权。除此之外,我们还需要考虑虚拟人对社会的影响,算法应该被设计为能够促进社会公平和包容,尽量减少负面影响,如失业问题或对社交互动的依赖。”
相关机构预测显示,到2030年,我国虚拟人产业整体市场规模将达到2700亿元,成为壮大数字经济的新增长点。就在不久前举办的“人工智能创新与治理”论坛上,张欣参与了《生成式AI伦理与治理倡议书》的发布。该倡议书的发起是为了应对生成式人工智能快速发展带来的诸多挑战和问题,涵盖了AI的安全、信息披露、人工把关、敏捷治理等七大原则,并给出了七大治理建议。“生成式AI模型需要严格保证其使用的安全,避免因误用或滥用造成社会风险和影响;对于使用生成式AI服务生成或编辑的信息内容,相关企业或组织应添加能够让公众明确知悉且不可删改的标识,以与真实信息区分,并逐渐形成行业标准;在AI生成的内容发布到公共领域之前,需要有人工进行把关和审查,以确保其内容的合法性和合规性;随着AI技术的迅速发展,AI的治理和规范也要及时跟进,以适应新的技术发展和社会需求。”张欣说道。
《生成式AI伦理与治理倡议书》代表了人工智能协同共治的一种探索、期待,也为进一步完善相关的法律法规和政策提供了重要的参考。张欣表示,“我们希望能够对AI行业进行方向性的引导,鼓励AI行业的健康发展,实现治理与发展的双轮驱动。倡议书发布以来,已经对生成式AI的治理和应用产生了积极的影响。”她提到,在行业内,已经有企业开始积极响应倡议书的建议,改进AI模型的开发和使用流程,提高信息披露和人工把关的标准。倡议书的发布也提高了公众对生成式AI的认识和理解,促进了公众的参与和监督。
(西南政法大学民商法学院法律硕士王泽州对此文亦有贡献)
(《小康》· 独家专稿)
本文刊登于《小康》2023年8月下旬刊