跨国金融服务公司UBS近日发布了一篇研究报告显示,各项技术中,“当红炸子鸡”ChatGPT达到全球1亿用户所需时间仅用2个月,而电话用了75年,手机的普及则用了16年。
OpenAI推出的这款聊天式机器人一经问世,便“引爆”全球,成为热门话题。而在ChatGPT爆火的背后,则是汹涌的人工智能浪潮。
在今年瑞士达沃斯举行的世界经济论坛上,微软首席执行官萨蒂亚·纳德拉(Satya Nadella)与《华尔街日报》主编马特·默里(Matt Murray)进行了一场对话,谈到了该公司的人工智能业务以及OpenAI的ChatGPT等生成式人工智能工具(AIGC)如何彻底改变我们的工作方式。
在长达30分钟的座谈采访中,纳德拉对ChatGPT的青睐溢于言表,在他看来,人工智能领域的发展在目前这个阶段已经可以用“指数级”来形容。
“至少在从事技术工作的30年里,这是我从没见过的技术扩散,我也不认为这种扩散曾发生在工业革命时期。”纳德拉强调。“也许这一次,对于知识型工作者来说,这就完全等于工业革命。”
谈AIGC:堪比工业革命
当地时间2022年12月30日,特斯拉人工智能主管、开发自动驾驶仪的主要领导人安德烈·卡尔帕西(Andrei Karpathy)在推特发文称,他写的代码中有80%是由GitHub Copilot编写完成的,且准确率约为80%。GitHub Copilot是一种帮助开发人员编写代码的AI工具,归微软所有。卡尔帕西表示,Copilot极大地加速了其写代码的速度,如今已经很难想象“人工写代码”的日子了。
今年的世界经济论坛期间,《华尔街日报》主编马特·默里(Matt Murray)在与纳德拉的一场对话中提到,在未来7、8年内,采访预计将由某种人工智能代替进行,而且采访可能做得更好,届时现场不会有记者,取而代之的是机器完成所有的工作。
对此,纳德拉并没有正面评论,而是以上面的例子表明了其立场。“他们(特斯拉工程师)说它的工作效率要高得多,可以说,这(软件工程师)曾经被认为是最难自动化的知识工作。”他表示。
此外,纳德拉还举例称,在印度看到有人使用一种印度白话语言在WhatsApp上与机器人交谈,并企图获得一些政府计划。该团队所做的是使用 GPT 训练印度政府的所有文档,并使其能够以每种印度语言自动化访问。
“我一生中从未见过,至少在我从事科技行业的30年中,发生在美国西海岸的先进科技在几个月内就以非常真实的方式出现在印度农村的某个人身上。”纳德拉直言。“这是我从未见过的技术扩散。我不认为它发生在曾经的工业革命中,也许这一次,对于知识型工作者来说,这就完全等于工业革命,这将对每个人都有帮助。”
纳德拉所举的两个例子,一个是最精英的人工智能开发人员,另一个是印度农村的一个农民,均在积极拥抱人工智能,这足以体现人工智能在世界运转中的力量。
近日大火的ChatGPT更是让更多人感受到了人工智能,尤其是AIGC的魅力。
ChatGPT是一种基于GPT-3模型的聊天机器人,不管是生成代码,回答考试问题,还是写论文、小说,都不在话下。虽然数学能力之前被网友广泛吐槽,但1月31日,OpenAI官宣,ChatGPT经过重大更新,已经提升了准确性和直实性,以及数学能力。现在,ChatGPT已经不是那个遇到数学难题就满嘴跑火车,一本正经胡说八道的ChatGPT了。
超强的学习能力和想象能力让网友直呼不可思议,有新闻记者甚至感叹“是不是快失业了”。
纳德拉此前曾表示,微软产品将全线接入ChatGPT,包括搜索引警Bing以及Office“全家桶”。《每日经济新闻》记者注意到,集成了ChatGPT-4的新版Bing今天曾短暂上线。
新版Bing被描述为“你身边的研究助理、个人规划师和创意伙伴”。它和传统网络搜索引擎的第一个主要区别是搜索框,它不是一个搜索栏,而是一个聊天框。它的尺寸要大得多,并且鼓励使用自然语言而不是关键字驱动的搜索词。你可以让Bing 查找特定的主题或想法,甚至征求它的意见,它会在聊天气泡中回复你的问题。
谈ChatGPT:“幻觉”内容正常
UBS近日发布了一篇研究报告显示,各项技术中,ChatGPT达到全球1亿用户所需时间仅用2个月,而电话用了75年,手机的普及则用了16年;而与各项应用相比,TikTok花了9个月达到1亿用户数,Instagram也花了30个月。
然而,从目前的情况来看,说ChatGPT达到“成熟”的标准还为时过早,也并未实现一个可行的盈利模式。一些批评人士认为,ChatGPT可能会编写恶意软件和网络钓鱼邮件。另外,ChatGPT还可以对文本提示做出虚假的回答,研究人员称之为“幻觉”。
昆士兰大学商学院研究员史蒂夫?洛基博士(Dr。Steve Lockey)在接受《每日经济新闻》记者的采访时就曾强调,Chat-GPT或许比谷歌更容易产生“看似很有说服力”的答案。
洛基表示,他曾在学术环境下尝试研究使用ChatGPT,但是ChatGPT并不擅长提供有参考依据的事实信息。它甚至有时会暗示一些看似可信的参考文献——例如,ChatGPT会像模像样地在它给出的答案上写出作者或出现在某个学术期刊上,然而实际上这些都(作者、期刊等)并不存在。
针对这一问题,纳德拉则认为,“这对人工智能来说并不新鲜,在当今任何其他类别的软件中也是如此。”他进一步解释称,目前对ChatGPT安全的所有担忧,无论是有害内容还是“幻觉”,只需要通过设计解决。他同时强调,所有的软件工程都必须考虑模型本身是否安全,然后在其之上建立一个安全系统。
谈模型:呈现指数级增长
ChatGPT是微软多年来与OpenAI深入合作的产物。早在2019年,微软就向OpenAI投入了10亿美元,据华尔街日报报道,微软正在通过谈判再投资100亿美元。微软已经在将这项技术整合到其业务中,纳德拉本周宣布,ChatGPT将很快在微软的云计算服务Azure上推出。
“人工智能模型力量正呈指数级增长,而不是线性进展。”纳德拉在对话中强调,目前全球经济停滞、通胀高企,世界需要一些新的东西(指人工智能)来帮助我们。
“如果我们真的梦想着世界上有80亿人以上,他们的生活水平应该逐年提高,那么能够实现这种梦想的投入是什么?人工智能可能是我们实现它的方式。我们需要一些真正改变生产率曲线的东西,这样我们才能有真正的经济增长。”他在采访中解释称。
然而,ChatGPT的火爆出圈,让许多职业人均感受到了不小的压力。默里在采访中表示,对于知识工作者来说,他们已经对未来的工作感受到了焦虑。那么,人工智能真的能提高我们所有人的生产力,而不是取代我们中的许多人吗?目前的社会准备好了吗?
针对这一问题,纳德拉给出的答案是,人们需要通过使用这些工具,在工作中获得更多的影响力。对于来势汹汹的人工智能浪潮,作为个人,纳德拉认为最好的准备方法是不要对赌这项技术。
值得注意的是,纳德拉在接受完华尔街日报的专访后三天,即1月19日,据路透社报道,美国微软公司宣布,将在2023财年第三季度大规模裁减1万个工作岗位。据报道,微软上一次大规模裁员是在2022年7月,而当时也仅仅辞退了近1000名员工。
转载来源:互联网
暂无评论
发表评论