惊人的 难道这个聊天机器人这么受欢迎比虚拟宇宙还具有颠覆性吗

“我最近开始玩 ChatGPT,它真的很棒。” 一位生物学领域的科学家近日在社交媒体上感叹。 在他向ChatGPT提出的挑战中,提出的问题从如何经营公司、如何管理孩子、为什么生育率下降,到中国的文化和政策问题,ChatGPT都能顺利处理大部分问题。

 

这种当今最流行的AI语言模型由美国人工智能实验室OpenAI于去年11月底发布,并迅速风靡全球。 人们早已为那些智能语音助手的愚蠢回答所苦,但这一次 ChatGPT 出乎意料地聪明:它可以用来创作故事、撰写新闻、回答客观问题、聊天、编写代码和查找代码问题等。 外媒评论称,ChatGPT将成为科技行业的下一个颠覆者。

ChatGPT 是自然语言处理 (NLP) 领域引人注目的发展。 它读取互联网上几乎所有数据,并在超复杂模型下进行深度学习。 由于语言是人类智慧和思维的核心表达,自然语言处理被称为“人工智能皇冠上的宝石”。 ChatGPT的出色表现被认为是通向通用AI的可行路径——作为底层模型,它再次验证了深度学习中“规模”的含义。

1月12日,在美国的一次活动上,曾担任微软董事长的比尔·盖茨表示,他并不认为Web3有那么重要,也不认为元宇宙本身具有革命性,但人工智能颇具颠覆性。 。 性的。 当被问及对 ChatGPT 的看法时,他说:“它让我看到了未来。整个平台的方法和创新速度给我留下了深刻的印象。”

智能聊天机器人app_ai智能聊天机器人_智能聊天机器人软件下载/

文字 彭丹妮

本文转载自微信公众号“中国新闻周刊”(ID:chinanewsweekly)。 原文首发于2023年1月31日,原标题为《聊天机器人ChatGPT火了,能写论文、能写代码、还能创作小说》。 不。代表展望智库的观点。

1、文本生成和对话领域基本需要“洗”

GPT的英文全称是Generative Pre-trained Transformer(生成预训练变压器),是一种基于互联网上可用数据训练的文本生成深度学习模型。 ChatGPT“脱胎”于OpenAI 2020年发布的GPT-3,后者是目前训练参数数量最多的AI模型。 当时一推出就引起了广泛关注。

这次发布的ChatGPT实际上是GPT-3.5。 ChatGPT在3.0的基础上,在应用层进行了强化训练,提高对话质量。

王帅是一名在AI领域工作20多年的工程师,目前就职于NVIDIA。 他告诉记者,首先,OpenAI引入了人类监督员对AI的答案进行打分,让它在众多可能的答案中选择那些更符合人类期望的答案; 其次,新版本还引入了多轮对话。 尤其是在涉及一些相关步骤的问答中,该模型的语言逻辑更加清晰且具有因果关系。

创新工场人工智能工程研究院执行院长王永刚告诉记者,人类在处理数学公式时,如果有几十个参数,就已经非常复杂了。 然而,GPT-3相当于一个包含1750亿个参数的公式,用于处理互联网上的所有数据,以理解当今的人类文本和语言。

因此,他评价OpenAI的超大规模预训练模型是深度学习诞生以来AI行为表现最接近人类智能的时期。 OpenAI 还在不断增加人工智能训练的规模和复杂性。

硅谷科技公司PerceptIn创始人刘少山在接受记者采访时表示,过去,AI在一些特定任务上已经能够做得非常好。 例如,在图像识别和语音理解方面,计算机正在逐渐取代人的眼睛和耳朵。 功能,但尚未能实现普遍使用。 所谓通用人工智能对应的是实现特定任务的人工智能。

2020年,在一次行业会议上,美国康奈尔大学计算机教授巴特·塞尔曼表示,通用人工智能可能需要20多年才能实现,“但如果我们能在未来五到十年内实现,如果真正的自然语言理解有突破,让AI能够阅读书籍并从互联网获取知识,那么这个过程可能会大大加速。”

ChatGPT拥有更好的语言理解能力,这意味着它可以更像一个通用的任务助手,可以与不同的行业结合,衍生出很多应用场景。 刘少山认为,可以说打开了一扇通向通用人工智能的大门。

王永刚指出,可以说,互联网的方方面面,只要涉及到文本生成、对话,未来基本上都会被ChatGPT“清理”。 也就是说,需要结合这种语言工具才能达到接近自然人类语言对话的效果。

以自动驾驶为例,刘少山表示,目前的自动驾驶还比较“傻”,因为汽车的智能系统与人的交互比较机械。 例如,如果前面有一辆车,按照规则,它可能无法正确行驶。 决定何时绕行。 未来,ChatGPT等人工智能的迭代可能会让机器更接近人类思维模式,学习人类驾驶行为,引领自动驾驶进入“2.0时代”。

近日,据硅谷科技媒体报道,微软已讨论将 ChatGPT 添加到 Word、PowerPoint、Outlook 等应用程序中。 1月17日,在达沃斯世界经济论坛的《华尔街日报》研讨会上,微软首席执行官萨蒂亚·纳德拉表示,微软将迅速采取行动,迅速将OpenAI工具商业化。

人类世界中有许多重复性、程式化的语言任务,不需要复杂的逻辑思维或决策。 ChatGPT 帮助人们更流畅、更快速地编写这些段落的潜力可能会成为这些 Microsoft 应用程序的杀手级功能。 例如,当人们需要请假时,只需键入“写病假电子邮件”几个字,Outlook就可以编写一份措辞正式的请假申请。

在“ChatGPT+”的世界里,搜索引擎领域的变化尤其令人关注。 目前的搜索引擎是根据关键词进行响应,根据搜索结果进一步过滤信息,然后进行整合。 一些人认为基于对话的搜索可能会彻底改变甚至取代当前的信息检索方法。 美国科技媒体1月初的报道指出,微软正在考虑将ChatGPT整合到其搜索引擎“Bing”中。

20多年来,谷歌搜索引擎一直是全球互联网的主要门户之一。 随着ChatGPT等产品的出现,《纽约时报》2022年12月21日文章指出,谷歌的主要搜索业务可能首次面临严重威胁。 谷歌管理层已发布“红色代码”,表示出现紧急情况,并正在做出回应。 有人担心,一场可能颠覆整个AI行业的巨大技术变革即将到来。

谷歌最先提出了深度学习模型的核心算法,但在应用方面,OpenAI等组织推动得更快。 熟悉谷歌的王永刚指出,一个很重要的原因是,像谷歌这样的大公司作为互联网上的信息提供商,对于新技术的商业应用其实是非常谨慎的。 例如,如果 ChatGPT 在回答知识问题时的准确率达到 95%,那么 5% 的错误率是否可以接受?

在2021年5月的谷歌网络开发者年会上,谷歌展示了其最新的人工智能系统LaMDA。 谷歌表示,LaMDA 可以让回复更加“合理”,让对话更加自然地进行,而且所有回复都不能被屏蔽。 但目前,谷歌仍然不愿意向公众发布 LaMDA。 谷歌表示,部分原因是LaMDA错误率较高,很容易对用户造成伤害。

“现在还很难判断。” 在Nvidia工作的王帅表示,如果ChatGPT能够取代现在的搜索引擎,谷歌不会坐以待毙,因为在大规模语言模型上它和微软不存在技术差距。 它和什么都没有区别; 其次,技术只是一方面原因,这背后还有运营成本、效率、商业模式等考量。

事实上,《纽约时报》还指出,谷歌可能不愿意部署这项新技术来取代在线搜索,因为它不适合数字广告——如果 ChatGPT 能够完美响应搜索,人们将没有动力去点击额外的内容。链接、广告在 2021 年为谷歌带来了 2080 亿美元的收入,占谷歌母公司 Alphabet 总收入的 81%。

当更先进的GPT-4问世时,可能会带来更加惊人的结果。 几个月前,王永刚会见了OpenAI的两位联合创始人,讨论了GPT-4的一些技术问题。 虽然目前还没有准确的数据,但他分析称,GPT-3模型的参数在1750亿的规模,而GPT-4的参数可能比这个高几个数量级。 他说这是一个惊人的训练量。 “想象一下,如果GPT-3相当于昆虫的脑容量,那么GPT-4可能达到哺乳动物的脑容量。”

然而,ChatGPT 还远非完美。 由于此类人工智能对话机器人是通过消化互联网上公开的大量数据而成长的,它们的知识结构既包含事实部分,也包含虚构部分,它们传达的信息可能包含偏见甚至仇恨言论。 上述生物学家表示,ChatGPT“忍不住会逗乐”一些答案不正确或无法回答的问题。

《麻省理工科技评论》去年11月底一针见血地指出,所有大规模语言模型都在输出“废话(愚蠢的话)”。 ChatGPT 似乎解决了一些问题,但还远未结束。 OpenAI 科学家 John Schulman 也承认,还有很多工作要做。 “我们在这个问题上取得了一些进展,但还远远没有解决。”

2《从水下100米到马里亚纳海沟》

长期以来,人工智能领域一直存在旷日持久的争论:基于深度学习和超级算力的大模型训练是通向通用人工智能的最终路径吗? 就这一点而言,OpenAI无疑是坚定的赌注。

2018年6月,OpenAI发表论文《Enhancing Language Understanding through Generative Pre-training》,首次介绍了自己的语言模型GPT-1。 它基于深度学习模型Transformer架构,使用包含数十亿文本文档的超大型语言数据库进行训练,参数量达1.17亿。 2019年2月,GPT-2升级版发布,模型参数达到15亿,训练模型的数据库也更大; 2020年,规模数百倍的GPT-3诞生。

创新工场人工智能工程研究院执行院长王永刚打了个比方。 如果说传统的机器学习或者人工智能是在水下一米的深度进行探索,那么深度学习的出现则将人们带到了水下100米的深度; 借助Transformer、GPT等架构,练习者可以直达万多米深的马里亚纳海沟。

过去五年,大规模预训练语言模型越来越受到业界的关注。 王帅指出,过去依靠人工标注和精美设计的训练方法在数据量大幅增加后表现不佳。 相反,大家逐渐认识到,不断扩大模型规模,不断使用更多的数据来训练模型,是改进算法的一种方式。 一种非常有效的能力手段。

“目前看来,这个模型太有用了。而且从ChatGPT的结果来看,它超出了我们的预期。” 王帅表示,可以认为这种规模越来越大的模型已经成为了该领域的范式,而且未来可能人工智能领域还有很多地方可以采用类似的方法来推进。

“如今,全世界的人工智能研究有很多方向,也产生了很多成果。但严格来说,所有这些最惊人的成果,90%以上都是基于 Transformer 迭代的这些大模型技术得到的。”王永刚也说。指出,当前几乎所有的AI任务和项目都会与大语言模型技术相关,这已经代表了AI行业最主流的科研和技术迭代方向。

2022 年 7 月,Alphabet 旗下 DeepMind 公司宣布与欧洲生物信息学研究所的团队合作,在生物学领域取得重大飞跃。 他们利用人工智能系统AlphaFold预测了来自超过100万个物种的2.14亿个蛋白质结构,几乎涵盖了地球上所有已知的蛋白质。 不少研究人员表示,这一系列突破将加速新药研发,带来基础科学新革命。 Alphafold也是一个基于Transformer结构的深度学习模型。

OpenAI是一家非盈利研究组织,由特斯拉创始人马斯克、Y Combinator总裁Sam Altman、PayPal联合创始人Peter Thiel等硅谷大亨于2015年创立。 其愿景是实现安全的通用人工智能并向公众开放。

多位接受采访的业内人士指出,大规模语言模型并不是OpenAI的“独门技术”; 再加上雄厚的人才和资金,谷歌、微软、百度等AI领域的巨头公司并非无法复制下一个ChatGPT。 事实上,在ChatGPT诞生之前,硅谷巨头们就意识到了大语言模型的重要性。 比如DeepMind也发布了人工智能聊天机器人Sparrow,Facebook母公司Meta也有自己的类似产品。

但不同的是,OpenAI多年来一直将资源集中在这个方向上。 在微软等巨头公司的资金和技术支持下,不断将这种方法论推向极致。 “规模优先的理念和方法论是OpenAI特别提倡的。相对而言,其他公司或团队并不像他们那么相信。” 王永刚说。

不过,王永刚表示,ChatGPT出圈后,从业者的心态更加微妙。 一方面,行业可能会越来越重视这条路径,投入更多的资源; 另一方面,大家都希望它不是AI领域唯一的核心方法,有探索更多可能性的空间。

“虽然仅仅依靠数据驱动的路径可以让AI在某些领域(例如人脸识别)接近或超过人类水平,但在其他领域(例如自动驾驶),我们需要的是接近100%的安全性。” 康奈尔大学计算机教授 Bart Selman 认为,最后 10% 或 5% 的提升可能无法通过深度学习本身来解决,需要不同的想法。

3 对人工智能的理解滞后于其发展

2022年9月,一位年轻人使用Al绘画工具Midjourney创作的作品《太空歌剧》在美国科罗拉多州博览会艺术大赛中荣获特等奖。 获奖类别第一名是“数字艺术/数字修饰照片”类别。 然而,这引发了人文争议和反人工智能绘画浪潮。

有网友表示,我们正在见证艺术的死亡。 “如果连艺术工作都无法避免被机器吞噬,那么高技能工作也将面临被淘汰的危机。 到那时,我们还剩下什么? ”

刘少山表示,人工智能科学家最初的猜想是,人工智能快速发展后,一些蓝领岗位和重复性工作将首先被取代。 然而,在ChatGPT、AlphaFold等工具问世后,人们发现最先感受到AI影响的是创造性工作,而送餐等涉及劳动的工作并没有被取代。

他解释说,在机器人、自动驾驶等领域,机械和智能是两个基本模块。 从实际进展来看,机械部分有很多物理限制,很多技术还没有突破。 得益于深度学习等模型的发展,智能部分突破得更快。

这些涉及创造力、知识探索和信息获取的行业是人文领域的核心,也是人类最担心被机器加工的部分。 人工智能在这些领域的重大突破始终伴随着广泛的伦理争议。

世界著名复杂性科学研究中心、美国圣达菲研究所教授梅兰妮·米切尔近日在接受媒体采访时表示,过于盲目地使用这些技术来自动化我们的沟通和创造力,可能会导致人类失去对事物的控制。机器,“机器人向机器人写电子邮件,机器人回复其他机器人。” 米切尔说:“我们作为人的本质已经从我们的信息中消失了。”

1月5日,纽约市教育局表示,将禁止在纽约公立学校的所有设备和网络上使用ChatGPT。 纽约市教育部发言人珍娜·莱尔 (Jenna Lyle) 指出,这一决定是基于“担心该工具可能对学生学习及其内容的安全性和准确性产生负面影响”。

人们普遍担心该工具可能会鼓励学生抄袭。 Jenna Lyle 表示,虽然 ChatGPT 提供了快速、简单的问题答案,但它并没有培养对学术和终身成功至关重要的批判性思维和解决问题的技能。

2022年12月27日,西北大学团队在预印本论文bioRxiv上发表文章。 在这项研究中,研究人员要求 ChatGPT 学习《柳叶刀》和《美国医学会杂志》等顶级期刊上发表的文章,并撰写 50 篇医学研究摘要,然后要求抄袭检测器、人工智能输出检测器和期刊审稿人进行比较将这些摘要与原始摘要相结合,以识别 ChatGPT 伪造的摘要。

结果发现,ChatGPT 生成的所有摘要均成功通过了抄袭检测器,人工智能导出器发现了 66% 的生成摘要,而期刊审稿人仅正确识别了 68% 的生成摘要和 86% 的真实摘要。 研究人员表示,使用大型语言模型进行科学写作的道德和可接受的界限需要进一步明确。

《自然》杂志最新发布规定,任何大型语言模型工具都不能成为论文作者; 如果论文创作中使用了相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。

王帅认为,像用AI写论文这样的事情在技术上肯定会发生,而且知识获取的门槛越来越低。 “我认为发展方向不一定是禁止,而是要讲教育评价的标准。 和观念需要改变。 与借助机器可以写出更好的长段文本相比,研究的质量、思维深度和原创性将变得越来越重要。”

就像当一项新技术,例如汽车或飞机被发明时,我们不可能说我们不会使用它。 关键是如何使用、如何监管。 从这个意义上说,王帅表示,以ChatGPT为代表的生成式人工智能的出现,围绕它及其应用的各个方面都没有跟上,包括法律、教育、社会、伦理等。事实上,即使是行业内的人也没有跟上。不完全理解人工智能领域正在发生的事情的影响。

2022年12月,《大西洋月刊》在《大学论文已死》一文中警告称,没有人对人工智能将如何改变学术界做好准备。 OpenAI 实验室的人工智能政策专家 Jack Clark 在最近的一篇文章中写道:“今天的人工智能模型比我们想象的要强大得多,而我们用来探索它们的技术却非常幼稚。”

刘少山也认为,目前行业不具备应对人工智能可能带来的社会影响的能力,因为人们对人工智能的认识还很有限。 这是最大的问题。 例如,虽然美国的一些学校禁止了ChatGPT生成的内容,但目前还没有办法检测和区分机器和人类生成的内容,这使得防御机制更加难以谈论。 “由于GPT等技术太新,监管部门无法理解。 我认为几年后,互联网上将会出现大量虚假信息。”

每当人工智能出现新事物时,公众总感觉某种巨大的变革即将来临,并且往往伴随着对机器取代人类的担忧。 不过,王永刚表示,一方面,人们太容易夸大人工智能的短期成果和影响;另一方面,人们也容易夸大人工智能的短期成果和影响。 另一方面,他们忽视了人工智能正在发生的不可逆转的长期变化。

在他看来,短期内,ChatGPT等人工智能的应用仍然是工具化的。 他们将提高效率并替代部分工作。 但真正值得担心的是,随着计算机能够处理的数据结构、模型、算法越来越复杂,变得越来越庞大和复杂,可能存在大量的“黑匣子”在其中进行操作,人们可能无法预测最终的输出结果。 是否在某个时间点,人工智能会跨过一个关键节点,进入一个我们尚未见过的世界,谁也无法预测。

中国工程科技知识中心(以下简称“知识中心”)是国家批准的国家工程科技领域公益性、开放性的知识资源整合和服务平台建设项目。 是国家信息化建设的重要组成部分。

建设知识中心的总体目标是满足国民经济和技术发展的需要。 通过聚集整合我国工程科技相关领域的数据资源,建立以资源为基础、以技术为支撑、以专家为骨干、以需求为驱动的集中管理。 ,分布式运维的知识中心服务平台。

知识中心旨在为国家工程科技领域重大决策、重大工程科技活动、企业创新和人才培养提供信息支撑和知识服务,最终建设成为国际先进、国内领先、广泛应用的知识中心。在工程科技领域有影响力的信息聚集中心。 数据挖掘中心和知识服务中心。