6大科学期刊截图曝光,揭秘最热门领域最新进展!?
研博论文

6大科学期刊截图曝光,揭秘最热门领域最新进展!?

这篇文章包含多个来源的截图,分别来自Elsevier, Science, Nature, ICML, 知乎以及第三个知乎。内容概要包括但不限于科技领域的前沿研究动态,涉及深度学习、自然科学和心理学等多个主题。各截图展示了不同学科的最新研究成果摘要,如机器学习模型改进、生物新发现、认知行为理论解析等。整体上,文章呈现出当今学术界多元且快速发展的特点。
想约全球流量天菜ChatGPT一起发SCI文章?可以么?
研博论文

想约全球流量天菜ChatGPT一起发SCI文章?可以么?

它来了,它来了!ChatGPT迈大步闯进学术圈了!你还不醒醒?! ChatGPT火成什么样了?Sensor Tower数据评估了全球顶级应用程序月活用户达到1亿所用时间,其中Instagram用了30个月,TikTok用了9个月,而ChatGPT仅仅用了2个月。称它为全球流量天菜,不为过吧! 自从它出现以后,我发现隔壁实验室的菜博士已经不跟小伙伴们聊天和讨论了,整天对着电脑傻笑。 据说,菜博士跟ChatGPT天天一起写文章,貌似还准备投稿SCI期刊,难道是反应迟钝,限制了我的想象力?!不禁疑问3联,ChatGPT不是个“数字人”么?还能约着一起写文章?还能作为共同作者发文章啊?然而,菜博士竟然不是第一个想要跟ChatGPT成为搭档成为共同作者的人,当然也不是第二个…… 俗话说,这边为你开了一道门,那边就要给你关上一扇窗。 由于目前使用ChatGPT一类的人工智能工具,还没有出台相应的规范化使用界限准则,而学术期刊的领头羊们率先明确发布了一些约束措施,如Science期刊的主编说:“我们不允许AI被列入我们发布论文的作者,并且在没有适当引用的前提下,使用AI生成的文本可能会被视为剽窃”。 Nature期刊的主编也明确说明:“任何大型语言模型(LLM)都不会被接受为研究论文的署名作者。这是因为任何作者的归属都意味着对研究工作的责任,而人工智能工具不能承担这种责任”。 所以说用ChatGPT写文章这种事情,还是要严谨对待,人人都要为自己负责,可不能随意就让人家机器人背锅啊! 问: “约”了ChatGPT一起写论文,它写了好多内容,还帮我做了表格,但是它不能负责,所以不能放在共同作者这里,那放哪儿合适呢? ‍答:如果你“找”了ChatGPT一起写的这篇论文,因为它给了你很多帮助,对论文有不小的贡献,但是由于它就是个工具,不能为论文的idea和原创性负责,建议可以放在方法Methods或致谢Acknowledgements板块。 问: ChatGPT给科研工作者带来的好处? ‍答:免费科助,重点是不会疲惫,不管你让它工作模式是996还是007,都不会闹小情绪哦!如果你懂得怎么跟他提问题交流,并能从每次交流中判断出有用信息,你将变成它的“主人”,它会像个陪练一样,陪着你在科研路上锻炼出独立的批判性思维能力。 问: ChatGPT给科研工作者带来的隐患? ‍答:如果你不是想“利用”它,而是想“依靠”它,那随着你一次次的偷懒,一次次把该你思考的问题全权交给ChatGPT去“代理”回答,将会让你本就不聪明的脑袋越来越“麻木”,我相信不用多久,你也就问不出什么有意义的问题了。再说了,ChatGPT还喜欢一本正经的编故事,不具备良好的判断能力,被忽悠了都不自知的自以为是傻乐,就更不好了吧! 问: 都“约”ChatGPT一起写文章了,竟然还不知道人家全名吗? ‍答:Chat Generative Pre-trained Transformer P.S. 不带感情的中文直译:聊天生成式预训练变换器 好朋友给你“讲人话”的翻译:经过海量数据预先训练了的,可以跟你聊天对话的一个人工智能机器人。它可以根据你输入的问题或者一段文字,生成一段以假乱真像真人回复的内容。
吵翻天!ChatGPT到底懂不懂语言?PNAS:先研究什么是「理解」吧
研博论文

吵翻天!ChatGPT到底懂不懂语言?PNAS:先研究什么是「理解」吧

编辑:LRS 【新智元导读】语言模型理解了人类语言吗?谁赞成,谁反对? 机器会不会思考这个问题就像问潜水艇会不会游泳一样。——Dijkstra 早在ChatGPT发布之前,业界就已经嗅到了大模型带来的变革。 去年10月14日,圣塔菲研究所(Santa Fe Institute)的教授Melanie Mitchell和David C. Krakauer在arXiv发布了一篇综述,全面调研了所有关于「大规模预训练语言模型是否可以理解语言」的相关争论,文中描述了「正方」和「反方」的论点,以及根据这些论点衍生的更广泛的智力科学的关键问题。 论文链接:https://arxiv.org/pdf/2210.13966.pdf 发表期刊:《美国科学院院报》(PNAS) 太长不看版: 支持「理解」的主要论点是大型语言模型能够完成许多似乎需要理解后才能完成的任务。反对「理解」的主要论点是,以人类的角度来看,大型语言模型的理解力非常脆弱,比如无法理解prompt间的微妙变化;并且语言模型也没有现实世界的生活经验来验证他们的知识,多模态的语言模型可能会缓解这个问题。 最关键的问题在于,目前还没有人对「什么是理解」有一个可靠的定义,并且也不知道如何测试语言模型的理解能力,用于人类的测试不一定适用于测试大型语言模型的理解能力。 总之,大型语言模型能够理解语言,但可能是以一种不同于人类的理解方式。 研究人员认为,可以开发一种新的智力科学,深入研究不同的理解类型,找出不同理解模式的优势和局限性,同时整合不同理解形式产生的认知差异。 论文的第一作者Melanie Mitchell是Santa Fe研究所的教授,她于1990年博士毕业于密歇根大学,导师为侯世达(《哥德尔、艾舍尔、巴赫:集异璧之大成》的作者)和约翰霍兰德,她的主要研究方向为类比推理、复杂系统、遗传算法和细胞自动机。 到底什么叫做「理解」? 「何为理解」一直困扰着哲学家、认知科学家和教育家,研究人员经常以人类或其他动物作为「理解能力」的参照物。 直到最近,随着大规模人工智能系统的兴起,特别是大型语言模型(LLM)的出现,在人工智能界掀起了一场激烈的辩论,即现在是否可以说机器已经能够理解自然语言,从而理解语言所描述的物理和社会情况。 这不是一场单纯的学术辩论,机器理解世界的程度和方式对于人类能在多大程度上信任AI能够执行驾驶汽车、诊断疾病、照顾老人、教育儿童等任务,以便在人类有关的任务中采取有力且透明的行动。 目前的辩论表明,学术界在如何思考智能系统中的理解方面存在着一些分歧,特别是在依靠「统计相关性」和「因果机制」的心智模型(mental models)中,分歧更加明显。 不过,人工智能研究界对机器理解仍然达成了普遍共识,即,虽然人工智能系统在许多特定任务中表现出看似智能的行为,但它们并不像人类那样理解它们所处理的数据。 比如说,面部识别软件并不能理解面部是身体的一部分,也不理解面部表情在社会互动中的作用,更不能理解人类是如何以近乎无穷种方式来使用面部概念的。 同样,语音转文字和机器翻译程序也并不理解它们所处理的语言,自动驾驶系统也不理解司机和行人用来避免事故的微妙眼神接触或肢体语言的含义。 事实上,这些人工智能系统经常被提及的脆性(brittleness),即不可预测的错误和缺乏稳健的泛化能力,是评估AI理解力的关键指标。 在过去的几年里,大型语言模型(LLMs)在人工智能领域的受众和影响力激增,也改变了一些人对机器理解语言前景的看法。 大型预训练模型,也可以叫做基础模型(Foundation Models)是具有数十亿到上万亿个参数(权重)的深度神经网络,在海量自然语言语料库(包括网络文本、在线图书等)上进行「预训练」后得到。 模型在训练期间的任务是预测输入句子中的缺失部分,所以这种方法也叫做「自监督学习」,由此产生的网络是一个复杂的统计模型,可以得到训练数据中的单词和短语之间是如何相互关联的。 这种模型可以用来生成自然语言,并为特定的自然语言任务进行微调,或者进一步训练以更好地匹配「用户意图」,不过对于非专业人士和科学家来说,语言模型到底如何完成这些任务的,仍然是个谜。 神经网络的内部运行原理在很大程度上是不透明的,即使是构建这些网络的研究人员对这种规模的系统的直觉也是有限的。 神经科学家Terrence Sejnowski这样描述LLMs的涌现能力(emergence): 突破了某个阈值后,就好像外星人一下子出现了,可以用一种可怕的、人类交流的方式与我们交流。目前只有一件事是清楚的,大型语言模型并非人类,它们行为的某些方面似乎是智能的,但如果不是人类的智能,它们的智能的本质是什么? 支持理解派VS反对理解派 尽管大型语言模型展现出的性能让人震撼,但最先进的LLMs仍然容易受到脆性和非人类错误的影响。 不过可以观察到,网络性能随着其参数数量和训练语料规模的扩大而有明显改善,这也使得该领域的一些研究者声称,只要有足够大的网络和训练数据集,语言模型(多模态版本)也许是多模式版本–将导致人类水平的智能和理解。 一个新的人工智能口号已经出现:唯一要做的就是提升模型规模(Scale is all you...