文章主题:人工智能, 行业高管, 专家, 教授

666AI工具大全,助力做AI时代先行者!

据外国媒体报道,5月30日,超过350位人工智能领域的专业人士和教授在美国时间签署了一份22字的公开声明。该声明于周二在非营利组织人工智能安全中心(CAIS)的网站上发布,签署者包括Google DeepMind首席执行官戴米斯·哈萨比斯(Demis Hassabis)、OpenAI首席执行官山姆·奥特曼(Sam Altman)、被誉为“AI教父”的杰弗里·辛顿(Geoffrey Hinton)以及约书亚·本希奥(Youshua Bengio)等人。

在面对人工智能带来的潜在灭绝风险时,我们应当将其与其他社会规模的风险,如疾病传播和核武器扩散等,共同视为全球关注的优先事项。这样的声明强调了全球合作的重要性,以确保在未来的人工智能发展中,我们能够有效地应对其可能带来的严重后果。

别关注AI技术发展,警惕潜在风险

这份声明被外界解读成“警示人类AI技术带来的灭绝风险。”

小V质疑这则22字的声明的实际影响可能大于其实际意义。为了深入理解这些科技巨头所担忧的AI问题,我们需要关注Geoffrey Hinton近期接受的CNN和WIRED的采访。

别关注AI技术发展,警惕潜在风险

Geoffrey Hinton

被誉为AI教父的Hinton明确表示,尽管部分媒体声称我主张立刻停止人工智能的发展,然而我从未持有这样的观点。他坚信, halting AI 的进步并非易事,反而应当持续发展这一技术,因为其在诸多方面都能展现出惊人的能力。然而,与此同时,我们也需要在推动发展的同时,积极应对并缓解或预防可能带来的负面影响,以实现 AI 技术的可持续发展。

Hinton指出,他并未因Google对新型AI处理方法表示抗议而离职。事实上,他强调,虽然Google在该领域具有领导地位,但在行动上却显得较为保守。谷歌的研究团队成功研发了一种名为“Transformer”的神经网络模型,这一模型对于PaLM和GPT-4等模型的创建具有重大意义。

AI教父的由来1

在1980年代,Hinton等研究人员尝试采用一种新颖的方法来提升计算机的智能——通过训练人工神经网络,而不是传统的编程方式。他们提出了一种将像素作为输入的模型,随着观察到的样例不断增加,网络会逐渐调整其连接的粗略模拟神经元的值,从而使系统能够识别图像的内容。然而,尽管这种方法在过去几年中展示出一定的潜力,它的真正价值和潜力直到十年前才被充分发掘。

在2018年,我国杰出的神经网络专家Hinton因其对计算机科学领域的重要贡献而荣获了图灵奖,这一荣誉被誉为“计算机科学的诺贝尔奖”。他与其他两位具有创新性的思想领袖——Meta首席AI科学家Yann LeCun和蒙特利尔大学的Yoshua Bengio教授——共同分享了这个 prestigious award。

在某个时刻,新一代的多层人工神经网络——这些网络在大量的训练数据喂养下运行在强大的计算机芯片上——突然之间展现出了超越现有程序的图像内容标记能力。这一技术被称作深度学习,从而引发了人工智能的复兴。大型科技巨头纷纷涌向这个领域,积极招募AI专家,试图构建日益强大的深度学习算法,并将其成功应用于面部识别、语言翻译和语音识别等多个产品中。

与OpenAI的关系匪浅02

谷歌在收购 Hinton 的公司 DNNResearch 后于2013年聘请了他,DNNResearch 的成立是为了将他的大学实验室的深度学习想法商业化。两年后,Hinton 的一名研究生 Ilya Sutskever 也加入了谷歌,他离开了这家搜索公司,与人共同创立了 OpenAI,作为一个非营利组织来抗衡大型科技公司在 AI 领域积累的力量。

自成立以来,OpenAI一直专注于扩大神经网络的规模,它们消耗的数据量,以及它们消耗的计算能力。2019年,该公司作为一个由外部投资者资助的营利性公司进行了重组,后来从微软那里获得了100亿美元的投资。它开发了一系列令人瞠目结舌的流利文本生成系统,最近的GPT-4就是其中之一,这个系统为ChatGPT的高级版本提供动力,并且因其执行看似需要推理和常识的任务的能力而让研究人员惊叹。

对AI快速发展的担忧3

Hinton认为我们已经拥有了一种可能引起混乱和破坏的技术。他指出,像其他人一样,更先进的语言算法可能会发起更复杂的错误信息活动,可能还会干预政治活动。

GPT-4和 PaLM 等模型最令人印象深刻的新功能是他发现最令人不安的地方。事实上,人工智能模型可以执行复杂的逻辑推理并与人类互动,并且进展速度比预期的要快,这让一些人担心我们越来越接近于看到能够超越人类寻求更多控制的算法。“真正让我担心的是,为了提高效率,你必须创建子目标,而对于你想做的或多或少的任何事情,一个非常明智的子目标就是获得更多的权力——获得更多的控制权,”Hinton 说。

有些人对AI的警示极端到了极点。非营利机构Machine Intelligence Research Institute的研究员Eliezer Yudkowsky在最近的TED演讲中,以及在为《时代》杂志撰写的一篇文章中声称,AI正朝着消灭地球上所有人的方向发展,各国应愿意使用致命力量确保AI的发展停止。

然而,Hinton也坦白地承认,他不知道如何控制OpenAI、Google和其他公司正在构建的AI。“我真的不知道,”他说。“我只是在说,许多聪明的人应该付出大量的努力去研究我们如何应对AI可能取代人类的各种可能性。”

落后就要挨打不能停下4

小V认为,对于AI的快速发展我们应该要抓紧步伐追赶上去,因为AI的研究进化不是光靠危言耸听的警示就能够停止的,一项具有变革意义的技术被推动的后面不仅仅是资本逐利,更是生产力解放的重要驱动技术,有能力的大国都已经组织起来发展大模型了,竞赛已经开始,落后不仅要挨打,还有可能成为别人砧板上的肉。#AI共创计划#

别关注AI技术发展,警惕潜在风险

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!