全球企业纷纷禁止使用ChatGPT等生成式AI,数据安全和隐私成关注焦点
本科论文

全球企业纷纷禁止使用ChatGPT等生成式AI,数据安全和隐私成关注焦点

Blackberry最新研究发现,全球75%的企业正在禁止或考虑禁止在工作场所使用OpenAI的ChatGPT等生成式人工智能应用,主要担忧数据安全、隐私和企业声誉风险。调查结果显示,企业内部的技术领导层在推动这些禁令的实施方面处于领先地位,CEO也发挥了主导作用。尽管ChatGPT等生成式AI能提高工作效率,但其不可预测且易泄露用户数据,引发了许多企业关注和担忧。
马斯克xAI创始成员国内首发声:ChatGPT时代「乱世出英雄」
本科论文

马斯克xAI创始成员国内首发声:ChatGPT时代「乱世出英雄」

萧箫 西风 发自 凹非寺量子位 | 公众号 QbitAI 马斯克组局xAI“钻研宇宙本质”,创始成员高深又神秘。 相比专注于AI领域本身,这些成员大多具有基础学科背景,接触AI之前或是在研究基础数学,或是在搞物理。 这家公司究竟要做什么? 就在这两天,丘成桐弟子杨格(Greg Yang),成为第一个以“xAI创始成员”身份在国内会议上发言的人。 在国际基础科学大会的“基础科学与人工智能”论坛上,他谈及了自己一直以来、也是接下来要进行的数学AI工作,以及对大模型当前发展现状的看法。 而他的个人经历也再次浮出水面,为更多人所关注。 接下来要进行什么研究? 在国际基础科学大会上,杨格就自己正在研究的方向进行了一场演讲。 演讲主题,主要与AI和数学交叉学科有关—— 从数学角度出发,建立一种描述神经网络架构的统一编程语言Tensor Programs。 这是他从微软研究院开始就一直钻研的领域,继2019年连续独立发表的两篇论文之后,迄今这一项目已经有7篇相关论文问世。 具体来说,Tensor Programs项目有一个“短期目标”和一个“长期目标”。 短期来看,这个编程语言能实现在设计新神经网络架构时,自动进行初始化条件分析,并给出其中最优的超参数初始化条件,从而让模型训练更顺利。毕竟此前,这一领域的初始化设置几乎“全靠经验”。 长期而言,Tensor Programs项目的目标是开发大规模深度学习的“万物理论”。 这也与杨格在推特说的、他在xAI要进行的研究方向一致: 目前无论是大模型还是其他AI研究方向,都依旧没有真正意义上解决AI“黑箱”的问题,换而言之,AI究竟走哪种研究方向(堆叠更大参数量的模型、还是MoE)收益更高,还没有一个明确的结论。 因此,Tensor Programs最终目标是找到一种理论上的规则,可以真正理解AI大模型的行为。 Tensor Programs最新的项目进展,是微软与OpenAI合作发表的论文µTransfer,杨格以共同一作的身份完成了这项研究。 这项研究的核心是帮助大模型找到最合适的超参数配置,从而替更多模型节省时间和算力成本,否则对于大模型来说,“重训”是一个非常浪费参数的行为。 目前这项研究已经开源,杨格也在这次的演讲中着重以µTransfer为例,介绍了Tensor Programs项目的进展。 从这几篇研究论文侧重的AI模型来看,大模型如今已经是杨格研究的重点方向之一。 一个值得关注的点就是,μTransfer已经用到GPT-4中了。 公众号“安迪的写作间”作者在杨格(Greg Yang)演讲结束后,和他聊了聊: 下台我问了他关于GPT-4用到μTransfer了吗,给出肯定回答。 所以,他究竟如何看待大模型的未来? 在这次论坛的圆桌对话上,杨格也提到了自己对大模型发展方向的看法。 他认为,继续堆叠大模型参数可以让模型效果越来越好,但这有个前提,即数据集的质量和数量必须要上升。 以前收集网络数据就行,如今训练集必须变得更偏向数学、科学、更有逻辑性,才能提高模型的科学和数学推理能力。 同时,杨格也给了如今拼搏在科研、交叉创新一线的AI研究人员一点建议,就是“Follow your dreams”:...
ChatGPT作为人工智能助手在学术界的应用与争议
期刊论文

ChatGPT作为人工智能助手在学术界的应用与争议

文章主要探讨了人工智能助手ChatGPT在学术论文中的使用问题。数千种科学期刊已明令禁止或限制投稿人使用ChatGPT撰写或编辑论文。学术界对此的主要应对措施和观点是政策封堵、禁止使用或限制性使用。然而,ChatGPT自身对此的态度则较为中立,认为这一政策有助于保护知识产权、维护公平市场和避免侵权行为。
我可以用ChatGPT写论文吗?
期刊论文

我可以用ChatGPT写论文吗?

ChatGPT ChatGPT,全称为Chat Generative Pre-trained Transformer,据其自我介绍,它是一个由OpenAI训练的大型语言模型,被设计用来回答各种问题并为人们提供帮助。据专家介绍,所谓大语言模型,即利用大规模的文本数据进行训练,能够生成自然语言的人工智能模型。 图源:央视世界周刊 2022年11月30日,美国美国人工智能实验室OpenAI正式发布ChatGPT。上线仅5天,ChatGPT注册用户数就突破百万;今年1月末,其月活用户数破亿,ChatGPT就此成为史上用户数增长最快的消费者应用。其流畅自然的交流能力、近乎人类的表达水平,使很多人将其视为“聊天机器人+知识检索+文本生成工具”“人工智能的革命性突破”。风乍起,吹皱一池春水。ChatGPT的出现,也在挑动着学术界与教育界的“敏感神经”。有人痛心疾首地高呼“大学论文已死”,也有人坚定地认为“人工智能只是工具”。 图源:网络 可以用ChatGPT写论文吗?可以发表?是学术不端吗?我们究竟应该以怎样的态度对待人工智能?如何更好地处理人工智能与学术科研之间的关系?已然成为学术界和教育界无法回避的问题。 反方 学术混乱?涉嫌剽窃? 据海外媒体报道,使用ChatGPT完成论文作业,已经逐渐成为美国大学的一种普遍现象。 图源:网络 在线课程供应商Study.com面向全球1000名18 岁以上学生的一项调查显示,每10个学生中就有超过9个知道 ChatGPT,超过 89% 的学生使用 ChatGPT 来完成家庭作业,48% 的学生用ChatGPT 完成小测验,53% 的学生用 ChatGPT 写论文,22% 的学生用 ChatGPT 生成论文大纲。 据《纽约时报》1 月中旬报道,北密歇根大学的哲学教授Antony Aumann 在为自己任教的一门世界宗教课程评分时,读到了一篇没有错别字和语法错误的“最佳论文”,简洁的段落、恰当的举例和严谨的论据,让教授倍感意外。不料最后发现,这篇论文是学生用ChatGPT 完成的。事实上,美国已经有大学生用 ChatGPT 写论文,获得了第一名。 《自然》于去年12月进行的一项调研显示,293名受访的教授老师中,20%已经发觉或目睹学生在用ChatGPT完成作业或论文。对于这种现象,一位加拿大作家 Stephen Marche 痛心疾首地呼吁:大学的论文已死! 使用ChatGPT来撰写期刊论文的能力也不容小觑。美国期刊《金融研究快报》上的一篇有关ChatGPT 的研究报告显示,它可以独立撰写出一篇金融论文,且论文内容能被相关的学术期刊所接受。 2022年12月一篇由香港人工智能药物研发公司Insilico Medicine 发表的利用 ChatGPT 推测雷帕霉素应用的文章中,ChatGPT被列为第一作者,引发业内争议。 2022年 12 月 27 日,美国西北大学的 Catherine Gao 等人在预印本资料库 bioRxiv 上发表的研究论文,研究团队通过使用ChatGPT 编写出了令人信服的研究论文摘要,原创分值100%,并通过剽窃检查,甚至人类科学家都难以分辨真假。 据权威学术期刊《自然》新闻部报道,截至目前,ChatGPT已经作为合著作者,出现在至少四篇已发表的论文和预印本中。 在此背景下,许多科学家已经开始担忧ChatGPT冲击学术圈可能带来的学术混乱,诸多学术刊物和高校纷纷采取应对行动。 《科学》近日发表了一篇标题为《ChatGPT很有趣,但它不是作者》的文章明确指出,禁止在投稿论文中使用ChatGPT 生成的文本。因为《科学》要求投稿论文必须是原创的,所以不能抄袭ChatGPT生成的文本,更不能将ChatGPT列为论文作者。《科学》系列期刊的主编Holden Thorp则公开表示,在《科学》及其子刊中发表的学术文章,不允许将AI列为论文作者。他表示,在没有适当引用的情况下使用人工智能生成的文本,可能会被视为剽窃。 《自然》则在更新的投稿规则中表示,可以在论文中使用大语言模型生成的文本,其中也包含ChatGPT。但大语言模型只是一种工具,应该在论文的方法部分适当介绍,不能将ChatGPT 列为作者。学术期刊出版商爱思唯尔(Elsevier)相关人士在接受英国《卫报》采访时表达了和《自然》相似的观点。 1月3日,国际机器学习会议(ICML)发布2023论文征稿公告,会议要求所有研究者,包括审稿人,禁止使用大型语言模型(LLM)编写论文,如 ChatGPT。 法国巴黎政治学院日前明确规定,禁止使用ChatGPT和其他所有基于人工智能的工具完成学习与考试任务。该院学术事务主任表示:“原因之一是它(ChatGPT)是基于计算而不是逻辑推理的人工智能,最重要的是,它会给人一种是人类写出文本的错觉。对于巴黎政治学院的学生来说,使用这种工具不能保证他们智力上的诚实。” 印度雷瓦大学教授表示,ChatGPT会让人停止思考,会对人类造成伤害。 图源:公众号截图 在国内,《暨南学报(哲学社会科学版)》发布关于使用人工智能写作工具的说明。说明提到,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。 图源:公众号截图‍‍ 《天津师范大学学报(基础教育版)》也发布相关声明,建议作者在参考文献、致谢等文字中对使用人工智能写作工具(如:ChatGPT等)的情况予以说明。 我国香港大学也表明禁止使用ChatGPT或其他AI工具完成课程作业及评估等计算学分项目,若学生在未获课程导师书面同意下使用,将被视作潜在剽窃个案处理。 正方 辅助工具?锻炼能力?据中国青年报采访,部分导师和学生对于使用ChatGPT等人工智能撰写论文持开放态度。“现在对人工智能的使用,并没有‘傻瓜’到学生输入一个问题、就能立刻写出一篇完美论文的程度。如果学生真的用人工智能生成了论文并且达到了我的要求,那说明他也是下了一番功夫的。”“一部分人过度神化了人工智能,ChatGPT写出来的东西,其实并不能直接用。” 有同学认为使用人工智能很锻炼提问能力,“要问很具体的问题,如果自己的问题模棱两可,它的回答可能也会有很大偏差,甚至有的时候答案会出错。” “向机器人提问,也是一种学习的方式。而搜索到的内容,只有自行消化,才能达到学习目的。”“人工智能提供给大家的只是一些信息,真正体现学术思想和原创性的部分在于作者自身对问题的洞察和思考。” 2月9日,上海市教委副主任倪闽景撰文指出,“ChatGPT是一种全新的知识工具,从这个意义上来说,它和我们几千年来依靠的书本、图书馆并没有两样,基于这样强大的知识工具来学习,孩子们应该学得更好。” 图源:网络 有学者表示,如果将ChatGPT合理运用在正确场景,也可能提升科研工作者的生产力。比如快速检索领域相关文献:ChatGPT可以快速检索某个特定领域的相关文献资料,或针对某个话题搜索相关的研究方向,这在所有论文的文献综述、研究者的科研方向探索层面会有一定助益。在阅读文献过程中,可能遇到篇幅较长的内容,此时也可利用ChatGPT进行要点总结。此外,基于期刊发表语言要求,ChatGPT也可以指导写作,润色语法,帮助作者减少在论文撰写中出现语法错误,优化文字表述。 “这样的AI可帮助人类进行真实创造,尤其是帮助人类提高创造效率,比如提高获取信息的效率或提出新颖想法,再由人解决其真实性问题。创造效率的提高将产生巨大效益和多方面影响,可以改变世界信息化格局。” 同时,有教授认为,ChatGPT技术带来的机遇大于挑战,对教育和学术界而言,与其恐慌,不如思考:为什么我们会一次次被机器打败?他说:“对抗AI进化,不如人以更快的方式进化。教育没能够使得人类很快的进化,这是我们需要反思的问题。” 未来 学会提问?独立思考? 牢骚太盛防肠断, 风物长宜放眼量。ChatGPT给学术界和教育界带来的冲击,值得更深入的思考。...