文章主题:生成式人工智能, ChatGPT, 法律规范, 风险管理

666AI工具大全,助力做AI时代先行者!

去年11月,ChatGPT的问世无疑引起了全球的关注。对于一部分人而言,这个具有突破性的生成式人工智能代表了科技的一项重大进步,其影响或许可以与个人电脑的问世相媲美。然而,也有一部分人持谨慎态度,他们认为在当前的人类认知水平下,ChatGPT的存在可能会带来潜在的风险和挑战。

在我国,生成式人工智能的规范化问题已经引起了法律界的广泛关注。近日,2023世界人工智能大会法治论坛在7日顺利举行,其主题为《数字治理:生成式人工智能之法律回应》。在这个论坛上,来自学术界、产业界和实务界的中外专家、学者们针对如何对生成式人工智能进行合理规范进行了深入探讨。

社会伦理、秩序的冲击不可小视

在与会专家眼中,生成式人工智能与过去的网络侵权行为存在显著差异。虽然它本身通常不会对个人安全或财产造成直接损害,但在当前的运作方式下,它可能会给知识产权保护和信息鉴别带来极大的挑战。

关于ChatGPT所创作出的文学、艺术等方面的成果是否能够被认定为著作权法意义上的作品,至今仍无明确的定论。有人认为,由于这些成果是由技术开发者产生的,因此应归属于著作权法下的作品。然而,也有人主张,由于用户可以对这些作品进行修改和使用,因此它们并不符合著作权法对于作品的定义。目前,这一问题尚未达成共识。中国人民大学教授王利明进一步指出,更为严重的问题可能源于生成式人工智能生成的大量看似真实的虚假信息。这些虚假信息可能是由程序计算错误产生的,也可能是用户恶意输入的结果。一旦这些虚假信息在社会中传播,可能会引发严重的社会动荡。

蚂蚁集团副总裁兼首席合规官李臣同样持有相似的观点。他认为,知识产权保护以及个人信息安全一直是互联网产业发展的难题,并非仅在生成式人工智能出现后才出现。然而,难以识别的虚假信息,或是含有歧视、偏见和错误内容的言论,可能会被ChatGPT大规模生产和传播,对社会伦理和秩序构成严重威胁,这值得我们高度重视。

在我们乐观地看待生成式人工智能为生活带来的便利的同时,科大讯飞副总裁、司法业务部总经理雍文渊提醒我们,真实性和准确性同样重要。他以人工智能在司法领域的应用为例,说明当前AI已具备协助普通人撰写法律文书以及提供专业法律法规建议的能力。然而,一起发生在美国的案例让我们意识到,即使是专业人士也难以分辨真伪,更别提普通民众了。这些误导性的信息不仅可能对公众产生不良影响,而且也可能破坏法治的基石。因此,我们需要关注并确保人工智能技术的真实性和可靠性,以免产生意想不到的后果。

一些与会专家指出,生成式人工智能的发展依赖于海量的数据支持,然而在这个过程中,跨境数据流动难以避免,这无疑给国家的信息安全带来了挑战。与此同时,生成式人工智能在金融、法律和服务等领域逐渐替代传统人工解答,但这些行业往往有较高的准入门槛,需要持有相应的资格证书。那么,ChatGPT是否可以被视为“无证上岗”呢?随着科技的飞速发展,生成式人工智能的应用范围日益广泛。在众多领域中,AI已经逐渐取代了传统的人工解答,这种趋势在金融、法律和服务等行业尤为明显。然而,这些行业往往有着较高的市场准入门槛,需要参与者具备一定的专业知识和资格证书。在这样的背景下,ChatGPT是否属于“无证上岗”的现象引发了人们的关注。面对这一问题,我们需要从多方面来考虑。首先,在生成式人工智能技术不断成熟的过程中,国家和企业应当加强对数据安全问题的重视,建立完善的数据保护制度,确保数据的安全和合规流动。其次,对于涉及较高准入门槛的行业,我们可以通过提高AI技术的普及率和应用广度,降低市场准入门槛,让更多的人能够参与到相关工作中来。最后,关于ChatGPT等AI系统是否属于“无证上岗”,我们应当进一步探讨相关法规和标准,明确其合法性和合规性,以确保科技发展的同时,也能保障信息安全。总之,生成式人工智能的发展前景广阔,但在实际应用过程中,我们也应充分认识到其中所面临的问题和挑战。只有这样,我们才能在推动科技创新的同时,确保国家的信息安全得到有效保障。

技术落后才是最大的风险

自 ChatGPT 诞生伊始,便有声音提倡对其进行法律和伦理规范化的探讨。今年三月份,包括特斯拉创始人马斯克、《人类简史》作者赫拉利、图灵奖得主约书亚·本吉奥在内的上千名企业家和科学家联名倡议,呼吁暂缓相关研究至少六个月,以便让监管措施能够及时跟进。针对这一情况,与会专家普遍认为,加强监管是必要的,但在实施过程中必须掌握好度,尤其是要避免过度限制其发展。

“我们需要形成一种价值取向,既要正视生成式人工智能存在的风险,又要认识到技术落后才是最大的风险。”在具体监管上,王利明建议,除去开发者有意侵犯公民个人信息之类的特殊情况,绝大多数时候,对生成式人工智能带来的法律风险应采取过错责任制,并适用现行的通知删除原则。

所谓过错责任制,指的是在事后审查时,判断标准是开发者是否已经尽到了最大注意义务,但受限于当前技术条件,所以无法完全避免损害发生。若是,那就不宜认定其存在过错。而通知删除原则是指我国民法典和个人信息保护法规定,网络服务提供者在接到用户关于存在侵权可能的投诉后,有没有对具体信息进行筛查甄别,并采取删除等必要措施。

“从目前来看,生成式人工智能带来的侵权问题,还没有完全超出我国相关法律的规制范围。”王利明认为,当务之急是要对生成式人工智能的研究建立一套合规审查标准,为未来可能的专门立法做准备。

来自美国的学者,耶鲁大学法学院蔡中曾中国研究中心研究员陆凯指出,从奥巴马时期开始,每一届美国联邦政府都会制定出台人工智能监管相关的规章,不过,这些规章并非强制性的法律,即使真的违反,也不一定会受到法律制裁。“我认为,美国政府是借此释放一种态度,表示我们关注到了这个领域,鼓励大家都去探索。”陆凯说,相比较而言,联邦法院做出的一些具体判例,可能对美国规范人工智能更有参考价值。

李臣表示,当前对生成式人工智能的研究,俨然已经成为国际竞争的一条新赛道,我们不能置身事外,必须加入进去。“我觉得,规则竞争和技术竞争同样重要,我们要尽快研究建立全周期的合规管理与监测机制,在未来的国际规则制定中争取更大话语权。”

栏目主编:王海燕 题图来源:上观题图 图片编辑:笪曦

来源:作者:王闲乐

生成式人工智能, ChatGPT, 法律规范, 风险管理

生成式人工智能:法律与伦理的回应

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公写作、生活好得力助手!

搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!