文章主题:巴黎政治学院, ChatGPT, 教育界, 人工智能

666AI工具大全,助力做AI时代先行者!

AI生成内容的伦理和法律问题:ChatGPT引发的学术界争议

出品 | 虎嗅科技

作者 | 齐健编辑 | 陈伊凡头图 | 6penAI生成

在1月27日的新闻报道中,法国著名的巴黎政治学院发布了一项严格的政策,决定禁止学生和使用ChatGPT。如果有人违反这一规定,将会受到严厉的惩罚,甚至可能导致被学校开除,更严重的是可能被整个法国高等教育体系排斥。这一举措显然是为了保证学术诚信和质量,维护教育的严肃性。

ChatGPT软件正引发全球教育工作者和研究人员一场严重的诚信危机。巴黎政治学院在一份声明中表示,鉴于该软件可能涉及欺诈和剽窃行为,教育工作者和研究人员必须给予高度重视。在此背景下,学生除非是为了特定课程目的,否则严禁在未提供明确参考的情况下使用该软件制作任何书面作品或演示文稿。

尽管巴黎政治学院并非首个宣布禁止使用ChatGPT的学府,但ChatGPT发布仅月余便引发了美国教育界的广泛关注。紧接着,众多美国的中学与大学纷纷跟进,宣布校园内禁止使用ChatGPT,同时通过减轻课后作业负担,防止学生借助家庭网络寻求ChatGPT的作弊帮助。更有一线城市纽约市的教育部,采取更为严格的措施,禁止全市学生及教师使用该AI工具,并针对下辖部门设备及互联网实施管控,限制访问ChatGPT。

AI生成内容的伦理和法律问题,正在引发社会各界的广泛讨论与思考。

AI背后的学术隐忧

《Science》期刊主编Holden Thorp在1月26日的社论中谈到,尽管ChatGPT具有很高的娱乐性,但它并不具备作者的身份。Thorp强调,任何论文的基本要素都是原创性,而利用ChatGPT生成的文本,实际上是在ChatGPT中进行抄袭。这种行为与真正的创作相去甚远,不仅损害了学术诚信,而且削弱了科学界对于论文原创性的严格要求。

我们当前正在进行编辑政策的修订,新规定明确禁止作者使用ChatGPT(或任何其他人工智能工具)产生的文本、数据、图像以及图形。一旦违反此 policy,将导致Science期刊将其视为学术不端行为,这与篡改图像或抄袭的行为并无二致。然而,Holden Thorp也指出,上述规定并不适用于AI论文中旨在研究的目的生成的数据。

国际机器学习领域的顶级会议之一——ICML(国际机器学习会议),近期也发布了一项严格的规定,禁止在会议中发表任何包含从大型语言模型(LLM,Large Language Model)生成的文本(如ChatGPT)的论文,除非是相关研究。这一举措是为了防止可能出现的意外后果和难以解决的问题。在AI学界,这样的决定并非首次实施,但依然引起了广泛的关注和讨论。

在学术期刊和顶级会议论文的撰写过程中,AI生成的内容所面临的最大挑战在于确定知识所有权和责任归属问题。作为论文作者,研究者应对论文的观点和内容承担责任,然而,AI是如何对文章内容负责的呢?如果在AI生成的内容中出现错误或不适当、甚至涉及造假或抄袭的情况,我们又应如何进行相应的追责?

在当前的AI技术环境中,“AI作弊”现象日益凸显,成为了一个亟待解决的问题。为此,从OpenAI官方、学术期刊出版商到普通开发者,各方都在积极探讨如何辨别一篇论文的作者是人还是机器?这个问题已经引起了广泛的关注,并成为了人工智能领域一个不可忽视的重要议题。

目前,OpenAI正积极研发针对其AI检测工具的研究。OpenAI客座研究员Scott Aaronson曾在德克萨斯大学的演讲中透露,他们正在采用一种创新的技术手段,通过对AI生成的内容添加“水印”,以期打击那些利用人工智能作弊的行为。这种技术的核心在于,通过调整ChatGPT生成文本的规则,使其在特定的内容位置生成具有“伪随机”特征的词汇,这些词汇不易被读者察觉。就像密码学中的密电码,只有掌握正确“密钥”的人才能轻松地判断一篇内容是否由ChatGPT生成。

《Nature》的出版商Springer Nature也正在开发可以检测LLM的技术。而就在前不久,普林斯顿大学的一位22岁的华裔学生Edward Tian研究出了一款专门给ChatGPT挑毛病的应用GPTZero,可以通过检测文本的“困惑性(Perplexity)”和“突发性(Burstiness)”这两项指标,来判断内容是人类创作还是机器生成。

AI引发版权问题

在校外,AI本身的“道德”问题,则让美术“老师”们对新生的AI绘图工具提出了严重的质疑,这直指另一个至关重要的问题——版权。

自从AIGC火了以后,很多行业的配图工作变得轻松了许多。以媒体行业为例,严肃媒体对新闻配图要求高,既要符合文意,又要对版权负责。所以无论是美术作品还是照片,要么是亲手创作,要么来自授权图库,但很多文章受客观条件限制,要找到一张符合要求的配图并不容易。

有了AI绘图以后,很多媒体人开始尝试用AI画配图,甚至是直接绘制新闻人物的肖像。那发自己用AI做的图,总不会侵权吧?这个问题,还真不一定。

AI生成内容的伦理和法律问题:ChatGPT引发的学术界争议
使用6penAI生成的拜登&特朗普画像

2022年下半年,AIGC刚刚蹿红,就有一些小有名气的艺术家对AI绘图提出了抗议。2022年,Erin Hanson等众多美国艺术家发起了反对Stable Diffusion的抗议行动,他们认为Stable Diffusion生成的部分画作抄袭了他们的风格,而这种行为严重侵犯了他们的合法权益。

AIGC虽然叫做AI生成,但其本身并没有创造能力,只能通过不断学习人类的生产过程,照猫画虎,AI绘图就是典型。在AI训练过程中,需要“投喂”大量的人类画作,从而学习人类的构图、绘画技巧,实现AIGC(AI Generative Content,AI生成内容)。

不过在这个生成的过程中,AI学的实在太像了,以至于很多画作直接与模型库中的人类画师风格完全一致。

“稍有名气的画师可能都遇到过作品被盗用、创意被侵权的事件。”一位国内某知名游戏公司的美术总监向虎嗅表示,虽然AI没有完全盗用画师的作品,但画师对风格上的抄袭也是很难接受的,不论抄袭者是人类还是AI。“如果有人拿着与我绘图风格完全一样的画,说是学习或是参考我觉得没什么。但如果说这是他‘生成’的,那就跟声明原创没什么差别了。不管是否用于商业用途,我都会觉得被严重冒犯了。”

AI的抄袭、剽窃和作弊不应该只是道德问题,还需要法律法规的约束。而目前,AI在很多领域都存在法律盲区。

我国AI领域的立法还处于建章立制阶段。当前已经出台了两部与AI相关的监管条例,分别是《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》,并均已开始生效。除此以外,还有一些分散在《民法典》、《数据安全法》、《网络安全法》、《个保法》、《网络音视频信息服务管理规定》、《网络信息内容生态治理规定》等法律法规中的个别条款规定以及一些支持产业发展性质的文件,目前来说还没有成为一个完整的体系。

“AI生成内容是一项新兴的技术,法律的滞后性和稳定性导致目前还没有专门对这种AI疑似抄袭的现象进行规制。”观韬中茂律师事务所合伙人王渝伟表示,从国外行业实践来看,越来越多的平台和AI绘图工具对作品版权作出了严格要求,谨防AI抄袭导致著作权侵权。在我国,目前还是应当根据《著作权法》,判断AI生成内容与人类艺术家作品之间是否存在实质性相似,进而认定是否抄袭。

除了涉嫌抄袭艺术家作品的AIGC内容,在另一方面,即使是随机生成的内容及画作,也还是会涉及版权问题。

AI绘图在抖音和小红书上刚刚兴起之时,即有脑洞大开的网友提出,可以把AI生成的图片挂到付费图库作为收费资源,实现“躺赚”。

面对这样的骚操作,Adobe选择“有限制”地开放AI绘图。只要符合特定标准,就允许在图片库Adobe Stock中上传生成式 AI 艺术品进行售卖。但上传前必须标记 AI 制作的内容,并且需要拥有其参考图像或文本的商业版权。

作为一款开源模型,Stable diffusion的开发者Stability AI和RunwayML则认为既然开源,那么它也应该依此引用开源CC0协议,即版权归公,同时任何人也可以自由地使用,包括商业使用。而对于DALL-E 2和Midjourney这样并未开源的AIGC模型来说,生成内容的权属则相对模糊。

目前AIGC市场上也存在很多版权乱象,一些基于Stable Diffusion开发应用的厂商声称,使用自己AI程序生成的图片版权归自己,甚至依此生产NFT向使用者兜售。

对此,王渝伟认为,AI应用的使用者,在使用这种应用进行创作时,生成的图片如果符合独创性的要件,就能够构成《著作权法》上的作品。而厂商已明确告知了使用者著作权的归属问题,相当于在合同中已经进行了约定,所以这种作品的著作权应当归属于厂商。 并不是说AI应用基于开源模型开发,它所生成的作品就不存在著作权,还是应当根据《著作权法》的规定判定著作权归属。

“目前相关法律制定最大的障碍和阻力,可能是法律如何保持科技发展和伦理价值的平衡。”王渝伟提出,一方面,AI技术的高速发展,可能会与人类的基本伦理认知相违背,违反社会公序良俗;另一方面,法律的规制也不能对AI技术设置过于严苛的标准,影响AI的进一步发展。

如对本稿件有异议或投诉,请联系tougao@huxiu.com

End

想涨知识 关注虎嗅视频号!

AI生成内容的伦理和法律问题:ChatGPT引发的学术界争议

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!