人工智能写作工具风靡高校,论文创作何去何从?
本科论文

人工智能写作工具风靡高校,论文创作何去何从?

近日,“国内高校已有学生用ChatGPT写论文”话题引发热议,随后《暨南学报(哲学社会科学版)》《天津师范大学学报(基础教育版)》等学术期刊相继发布关于使用人工智能写作工具的说明。 《暨南学报》编辑部声明,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。 《天津师范大学学报(基础教育版)》编辑部在说明中提到,倡导合理使用新工具、新技术,建议作者在参考文献、致谢等文字中对使用人工智能写作工具(如:ChatGPT等)的情况予以说明。 ChatGPT能否写好论文?在审核过程中高校教师又能否识别出来?对此,九派新闻进行了测试,并邀请高校教师进行了评审。 【1】测试:ChatGPT写出的论文已经能够“蒙混过关” 日前,九派财经记者要求ChatGPT以“我国主流媒体人物报道中的女性形象建构研究”为主题、“新闻框架理论”为基本理论,写一份本科生论文大纲。在不到两分钟内,它交出了一份答卷——湖北省某高校新闻传播学院教师郑忠明给这份大纲打了及格的60分。 郑忠明评价到,可能由于学习数据库中的论文本身不够规范,机器很难理解论文研究的意义,ChatGPT给出的大纲前半部分层次比较凌乱,而后半部分模式化的框架没有太大问题。 郑忠明直言,如果没有提前知道上述大纲来自ChatGPT,他不能辨认出来。他解释到,有些论文大纲本身就很粗糙,会让人感觉是机器拼凑的东西,也就是说,人类的行为中已经包含了很多类似于机器的行为。 【2】高校教师:辨别作者是机器和人,关键在论文审稿者 和人文学科论文相比,理工科论文中AI工具写作的内容可能更难被识别,具体表现在,针对伪造的实验数据,审稿人无法在短期内证伪;而由于实验过程的繁琐,向AI工具寻求实验数据恰恰是很多学生的常规操作。 某高校电子科学与技术专业本科生林广(化名)曾向朋友借ChatGPT账号。他告诉朋友,“我写论文,需要(ChatGPT)给我算一下相关数值,这样会比我去其他网站找相关代码cv再去仿真软件里模拟结果要快。” 对于前述期刊针对ChatGPT发布的使用说明,林广坦言:我觉得没有人会完完全全照搬ChatGPT的回复,多少都会“润色”一下,所以界限很难判断,“这个东西和学术抄袭一样都挺难管控的,使用者不说,你也不能一口咬定是抄袭。” 使用ChatGPT等人工智能工具写论文这一现象正逐步蔓延开,郑忠明对此的态度不甚乐观。他认为,所有工具的使用最终都要落实到人的道德和理性的控制,但事实上,由于每个人发表论文追求的目的不同,让人仅仅把人工智能工具作为一个查阅资料的辅助手段,是一个很高的要求。 作为教师,郑忠明的应对ChatGPT的方法是向学生提问。他告诉九派财经记者,辨别机器和人写出的论文,关键在于论文审稿人,也就是把关人。“按照最原始的、高质量的标准,我不管你是不是拼凑,第一个,你的研究问题有没有价值?第二个,你的研究方法是不是能解决你的研究问题?”提问形成的互动过程能够让他很快地识别论文是不是人写的。 【3】清华博士:ChatGPT不能产生新的知识,无法拓展人类知识边界 然而,强大如ChatGPT,目前也难以替代人类的创造性工作。 清华大学数学系在读博士研究生王鹏(化名)没有感受到ChatGPT对数学论文发表产生的影响。他说:“ChatGPT只能对已有的知识综合搜索,无法产生新的知识。而学术论文是要产出新的知识,拓展人类的知识边界,这方面我认为目前的ChatGPT是无能为力的。” 2月13日,创新工场董事长兼CEO李开复在社交平台引用其作品《AI未来进行式》中的内容,点明了诸如ChatGPT等AI工具的三大短板:创造力、同理心和灵巧性。 目前,ChatGPT所有的回答都基于已经存在的数据分析,统计、经验研究等方向是其优势。但是,如果需要探讨更深层次的问题,做实证研究、定性研究,需要进行主观判断,ChatGPT这类人工智能工具很难做到。 “本质上ChatGPT就是一个工具,类似谷歌学术,论文的核心内容还是需要研究者自己写出的。”王鹏说。 九派财经见习记者 黄依婷 编辑 郭梓昊 【来源:九派新闻】 声明:此文版权归原作者所有,若有来源错误或者侵犯您的合法权益,您可通过邮箱与我们取得联系,我们将及时进行处理。邮箱地址:jpbl@jp.jiupainews.com
ChatGPT生成内容,版权属于谁?
本科论文

ChatGPT生成内容,版权属于谁?

近期,ChatGPT引发新一轮科技浪潮,国内外厂商都开始积极布局生成式人工智能技术领域。ChatGPT的能力范围包括生成定制诗歌、游戏剧本、计算机代码等。那么,ChapGPT生成的内容,版权属于谁呢? 其实,人工智能生成内容已经不是一件新鲜的事儿。国外早在1983年就有机器人雷克特(Racter)生成了诗集《有着半人工胡子的警察》(The Policeman’s Beard is Half Constructed),国内也有微软开发的人工智能“诗人”小冰,生成诗集《阳光失了玻璃窗》,在图书市场中流通,还有人工智能编曲、作画、制作视频等。无论是文学作品还是艺术作品,在我国与其他国家均受到版权法保护。但是版权法通常仅保护自然人作者,部分情况下法人在雇佣合同或委托合同等法律规定的情形中也可以获得作品的版权。然而,人工智能既不是法律意义上的自然人,也不是法人,难以获得作者资格。 关于非人类作者的问题,美国“猴子自拍案”是一个经典案例。该案中摄影师斯莱特的相机被一只黑冠猕猴抢走,这只猕猴被相机快门的声音所吸引而摆弄快门拍了数百张照片。其中一张类似于自拍的相片冲印出来之后效果非常好,相关主体就该照片的版权问题产生了争议。法院最后判定猴子不是版权法意义上的作者,因此这些照片不受版权法保护。《美国版权局实践纲要(第3版)》更新后,在不符合人类作者要求的作品举例中,第一个例子就是“猴子拍的照片”。该案否定了人类以外的主体担任作者进而享有作品版权的资格。 我国版权保护制度同样不认可动物或者人工智能成为作品的作者。著作权法规定“创作作品的公民是作者。由法人或者其他组织主持,代表法人或者其他组织意志创作,并由法人或者其他组织承担责任的作品,法人或者其他组织视为作者”。也就是说,只有公民、法人或其他组织是我国版权法所承认的作者。著作权法还规定“著作权属于作者,本法另有规定的除外”。人工智能生成内容没有符合资格的作者,因此也无法界定合适的权利所有人。虽然法律规定的特殊情形,如雇佣作品、委托作品以及其他合同关系中,作者以外的主体也有可能获得作品的版权,但人工智能不具有民事主体资格,不能作为合同当事方签订合同,因此也不能成为这些法定情形中的版权所有人。 根据现行著作权法,人工智能没有资格担任ChatGPT生成内容的作者,因此也无法享有ChatGPT生成内容的著作权。然而,人工智能生成内容仍可能存在法律保护的需求。例如,密歇根大学一名学生利用ChatGPT写课程论文,获得全班最高分,引发全网热议;微软小冰的诗集出版后,也有一些诗文未经授权被复制并在网络空间中传播。国外版权实践中,甚至存在人工智能生成作品在版权局登记注册的案例。美国版权局网站上可以查询到《有着半人工胡子的警察》这本诗集的版权登记信息,其中作品权利所有者为研发人员威廉·张伯伦和诗集插画师琼·霍尔,作者则是生成诗歌作品的人工智能雷克特。版权局不对注册信息中作者名字是否为真实自然人进行审查,因此以人工智能为作者的注册申请得以审核通过,但是权利效力尚待质疑。后续人工智能生成内容在版权登记中大部分规避了这个问题。例如,2013年麻省理工学院的尼克·蒙特福特(Nick Montfort)教授利用自己编写的程序创作了小说《世界时钟》(World Clock)并出版,作者和版权所有人均标注为蒙特福特教授本人。 我国图书市场中流通的微软小冰诗集《阳光失了玻璃窗》扉页也印有“版权所有,侵权必究”类似的版权声明,作者署名为“小冰”。版权所有人信息未予注明,按通行做法应该是由“诗人”小冰的研发者原始取得版权,然后将发行权、复制权等财产性权利转让给图书出版公司。根据上文的分析,“小冰”不符合我国著作权法关于作者为公民的要求。那么“小冰”的研发者能否作为实际作者成为这本诗集的版权所有人呢?这个问题的关键在于其有没有实际参与诗文内容的创作。我国著作权法实施条例第三条指出:“著作权法所称创作,是指直接产生文学、艺术和科学作品的智力活动。”在创作的过程中,研发者为人工智能提供信息数据库,人工智能通过深度学习技术对数据库中作品的语言风格、语法、意向元素等内容进行学习,生成与其他作品不同的诗文后重复修改。研发者不参与学习与修改的过程,只是在特定节点,如100次、500次、10000次的时候对作品的质量进行评价,判断是否能够成为一篇合格的诗文作品。可见,研发者在人工智能创作过程中更多的是起到监督作用,而没有直接产生文字内容,不属于作品的作者,因而也无法获得作品的版权。 根据上述分析,当人工智能利用深度学习等技术创作出作品时,人工智能本身与人工智能研发者均不是符合法律要求的作者。即使作品满足版权法要求的原创性要求,人工智能作品没有合格的版权所有人,原则上应该进入公共领域。当然,也不排除部分国家可能会修改相关法律,扩展作者、版权主体范围,或者赋予人工智能以法律人格。这样人工智能就有可能成为作品的权利主体,或者作为合同主体通过签订合同来约定权利归属。从激励创新的角度而言,如果能赋予人工智能作品以版权保护,使得人工智能研发者或监督者获得一定程度经济回报,则可实现该领域技术的进一步创新与进步。版权保护体系比直接付诸人工智能作品于公共领域更能促进创新思想的传播与社会整体福利的提升。更何况人工智能作品是利用创新性人工智能技术来生成创新性作品,实现了双重创新。 作者系中国移动专利支撑中心研究员 (来源:法治日报) 举报/反馈
ChatGPT与无人驾驶:法律契约与科技伦理的新挑战?
期刊论文

ChatGPT与无人驾驶:法律契约与科技伦理的新挑战?

这篇文章讨论了ChatGPT等创新科技所面临的法律和社会契约问题,特别是在无人驾驶责任归属的模糊背景下,技术供应商、制造商和道德法律都可能承担责任。同时,它强调了科技进步带来的“后人类模型”对社会结构、就业和法律合规性的挑战。尽管全球对其普遍积极态度,但也应警惕其潜在的侵权风险和伦理问题。欧洲已经开始对ChatGPT进行监管,提出了一系列指控和调查,呼吁在科技发展中规范与人之间的关系,保障人类尊严和社会秩序。
ChatGPT真的能写出高质量论文?高校教师如何识别?真相在这里…
本科论文

ChatGPT真的能写出高质量论文?高校教师如何识别?真相在这里…

近日,“国内高校已有学生用ChatGPT写论文”话题引发热议,随后《暨南学报(哲学社会科学版)》《天津师范大学学报(基础教育版)》等学术期刊相继发布关于使用人工智能写作工具的说明。 《暨南学报》编辑部声明,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。 《天津师范大学学报(基础教育版)》编辑部在说明中提到,倡导合理使用新工具、新技术,建议作者在参考文献、致谢等文字中对使用人工智能写作工具(如:ChatGPT等)的情况予以说明。 ChatGPT能否写好论文?在审核过程中高校教师又能否识别出来?对此,九派新闻进行了测试,并邀请高校教师进行了评审。 【1】测试:ChatGPT写出的论文已经能够“蒙混过关” 日前,九派财经记者要求ChatGPT以“我国主流媒体人物报道中的女性形象建构研究”为主题、“新闻框架理论”为基本理论,写一份本科生论文大纲。在不到两分钟内,它交出了一份答卷——湖北省某高校新闻传播学院教师郑忠明给这份大纲打了及格的60分。 郑忠明评价到,可能由于学习数据库中的论文本身不够规范,机器很难理解论文研究的意义,ChatGPT给出的大纲前半部分层次比较凌乱,而后半部分模式化的框架没有太大问题。 郑忠明直言,如果没有提前知道上述大纲来自ChatGPT,他不能辨认出来。他解释到,有些论文大纲本身就很粗糙,会让人感觉是机器拼凑的东西,也就是说,人类的行为中已经包含了很多类似于机器的行为。 【2】高校教师:辨别作者是机器和人,关键在论文审稿者 和人文学科论文相比,理工科论文中AI工具写作的内容可能更难被识别,具体表现在,针对伪造的实验数据,审稿人无法在短期内证伪;而由于实验过程的繁琐,向AI工具寻求实验数据恰恰是很多学生的常规操作。 某高校电子科学与技术专业本科生林广(化名)曾向朋友借ChatGPT账号。他告诉朋友,“我写论文,需要(ChatGPT)给我算一下相关数值,这样会比我去其他网站找相关代码cv再去仿真软件里模拟结果要快。” 对于前述期刊针对ChatGPT发布的使用说明,林广坦言:我觉得没有人会完完全全照搬ChatGPT的回复,多少都会“润色”一下,所以界限很难判断,“这个东西和学术抄袭一样都挺难管控的,使用者不说,你也不能一口咬定是抄袭。” 使用ChatGPT等人工智能工具写论文这一现象正逐步蔓延开,郑忠明对此的态度不甚乐观。他认为,所有工具的使用最终都要落实到人的道德和理性的控制,但事实上,由于每个人发表论文追求的目的不同,让人仅仅把人工智能工具作为一个查阅资料的辅助手段,是一个很高的要求。 作为教师,郑忠明的应对ChatGPT的方法是向学生提问。他告诉九派财经记者,辨别机器和人写出的论文,关键在于论文审稿人,也就是把关人。“按照最原始的、高质量的标准,我不管你是不是拼凑,第一个,你的研究问题有没有价值?第二个,你的研究方法是不是能解决你的研究问题?”提问形成的互动过程能够让他很快地识别论文是不是人写的。 【3】清华博士:ChatGPT不能产生新的知识,无法拓展人类知识边界 然而,强大如ChatGPT,目前也难以替代人类的创造性工作。 清华大学数学系在读博士研究生王鹏(化名)没有感受到ChatGPT对数学论文发表产生的影响。他说:“ChatGPT只能对已有的知识综合搜索,无法产生新的知识。而学术论文是要产出新的知识,拓展人类的知识边界,这方面我认为目前的ChatGPT是无能为力的。” 2月13日,创新工场董事长兼CEO李开复在社交平台引用其作品《AI未来进行式》中的内容,点明了诸如ChatGPT等AI工具的三大短板:创造力、同理心和灵巧性。 目前,ChatGPT所有的回答都基于已经存在的数据分析,统计、经验研究等方向是其优势。但是,如果需要探讨更深层次的问题,做实证研究、定性研究,需要进行主观判断,ChatGPT这类人工智能工具很难做到。 “本质上ChatGPT就是一个工具,类似谷歌学术,论文的核心内容还是需要研究者自己写出的。”王鹏说。 九派财经见习记者 黄依婷 编辑 郭梓昊 【来源:九派新闻】 声明:此文版权归原作者所有,若有来源错误或者侵犯您的合法权益,您可通过邮箱与我们取得联系,我们将及时进行处理。邮箱地址:jpbl@jp.jiupainews.com