首页 > 资讯列表 >  本页面生成PTC专题报道,PTC滚动新闻,PTC业界评论等相关报道!
  • 工作被ChatGPT取代,他们改去遛狗和修空调

    工作被ChatGPT取代,他们改去遛狗和修空调

    6月3日消息,随着ChatGPT等聊天机器人在各行各业中得到越来越广泛的应用,许多职业正在面临被取代的风险。特别是那些从事策划营销和社交媒体内容创作的人。一些公司已经发现,即使文案质量略微下降,降低成本也是值得的。这些被取代的白领们不得不转而依靠替人遛狗、修理空调之类的零工来维持生计。以下是翻译内容当人工智能聊天机器人ChatGPT于2022年11月面世时,25岁的文案写手奥利维亚·利普金(Olivia Lipkin)并没有太在意。然而,在她所在的科技初创公司的内部聊天群中,有关如何在工作中使用这种工具的文章开始流传。当时,利普金是公司唯一的写手。接下来的几个月里,利普金的工作任务越来越少。经理们开始在聊天群里称呼她为“奥利维亚-ChatGPT”。今年4月,利普金在没有任何解释的情况下被解雇了。但她在经理发布的文章中找到了原因:使用ChatGPT比付钱给写手更便宜。"每当人们提到ChatGPT,我就感到不安和焦虑,害怕它会取代我,"利普金说:“如今,我有了确凿的证据证明自己的担心并不是杞人忧天,我失去了工作,因为人工智能取代了我。”很多经济学家都预测,像ChatGPT这样的人工智能技术可能会取代许多工作岗位,从而引起一场类似工业革命的大规模“劳动力重组”。目前,聊天机器人等工具已经开始取代一些工人的工作岗位,尤其是那些从事策划营销和社交媒体内容创作的人,这些工具看起来能够创造出一些合理的替代方案。专家表示,即使是最先进的人工智能技术也无法与人类的写作技能相媲美,因为它们缺乏个性化的风格,而且经常会给出错误、荒唐或带有偏见的答案。然而,对许多公司来说,以文案质量略微下降为代价,来换取成本降低是值得的。“我们现在正处于危机之中,”加州大学洛杉矶分校数字劳动力副教授萨拉·罗伯茨(Sarah T. Roberts)说,“人工智能正在取代许多本应不受到自动化影响的工作。”为何ChatGPT会变得又快又好?人工智能在过去一年中的质量迅速提高,产生了可以流畅对话、写歌甚至编写计算机代码的聊天机器人。为了推广这项技术,许多硅谷公司正在将这些产品免费推向更多用户。几十年来,人工智能和算法一直是职场不可或缺的一部分。消费品公司、杂货店和仓储物流公司一直在使用预测算法和人工智能驱动的视觉系统,帮助他们制定业务决策、自动化某些机械任务和管理库存。在20世纪的大部分时间里,机器人一直在工厂中占据主导地位,许多办公任务也被软件所取代。但最近兴起的生成式人工智能可能会掀起一股颠覆性的新浪潮。它使用复杂的算法,接受来自互联网上数以亿计的单词和图像训练,并可以生成文本、图像和音频。专家表示,这项技术能够大量生成看起来像真人撰写的答案,这使得高薪知识型工作者成为被取代的目标。宾夕法尼亚大学沃顿商学院副教授伊桑·莫里克(Ethan Mollick)表示:“在之前的每一次自动化威胁中,自动化多是将艰苦、肮脏、重复性的工作自动化。而这一次,自动化威胁直接瞄准了收入最高、最具创造性的工作。这些工作往往需要接受更多教育的人才承担。”今年3月,美国投行高盛预测,全球18%的工作可能会被人工智能自动化,而律师等白领面临的风险将比建筑或维修等行业的工人更大。这份报告还称:“那些主要从事户外工作或体力劳动的职业,目前人工智能还无法完全实现自动化。”美国政府也已经敲响了警钟,白宫在去年12月发布的一份报告中表示:“人工智能有可能自动化‘非常规’任务,从而使大量新的劳动力面临潜在的失业威胁。”ChatGPT“幻觉”无法修复?但莫里克称,现在评估人工智能对劳动力的威胁还为时过早。他指出,文案、翻译和转录以及律师助理等工作面临的风险尤其大。因为这些工作的任务很容易交给聊天机器人完成。高级法律分析、创造性写作或艺术创作等可能不那么容易被取代,因为人类在这些领域的表现仍然优于人工智能。莫里克还说:“我们可以把人工智能看成高级实习生。有些工作主要是为了让新人入门某个行业,做点有用的事,它也是通往下一级的跳板。现在,这些工作正在遭受人工智能的威胁。”埃里克·费恩(Eric Fein)来自伊利诺伊州布鲁明代尔,经营自己的内容写作业务已有10年。他的业务范围从150字的浴垫描述到特殊网站文案,每小时收费60美元。他已经建立了稳定的业务,有10份合同需要履行,这占他年收入的一半,为妻儿提供了舒适的生活。然而在今年3月份,费恩收到了最大客户发来的通知:由于采用了ChatGPT,将不再需要他的服务。费恩的其他九份合同也因同样的原因被接连取消,整个文案业务几乎一夜之间就消失了。费恩说:“这让我感觉筋疲力尽。”他请求这些客户重新考虑上述决定,并警告ChatGPT可能无法像他那样提供拥有创造力、技术精确度和原创性的内容。费恩表示,客户们理解这一点,但他们告诉他,使用ChatGPT比支付给他的报酬要少得多。令人欣慰的是,费恩随后被他的一个客户重新雇用,因为后者对ChatGPT的工作不满意。然而,这还不足以养活费恩及其家人,他们的积蓄仅够坚持六个多月的时间。现在,费恩决定从事一项人工智能无法胜任的工作,他已经报名参加了暖通空调技术员的培训课程。明年,他计划接受培训,成为一名水管工。他说:“这类培训可以帮助防患于未然!”人工智能是否会摧毁人类?许多企业曾尝试用聊天机器人代替员工,但都遭遇了惨败。比如,科技新闻网站CNET使用人工智能撰写文章,结果错误百出,编辑们花费更多时间来修正。一位律师使用ChatGPT撰写法律简报,却引用了许多虚构的案例。据报道,美国国家饮食失调协会解雇了帮助热线的员工,用聊天机器人代替他们。但聊天机器人提供的建议缺乏同情心,甚至有害,因此他们暂停了使用这项技术。加州大学洛杉矶分校罗伯茨教授表示聊天机器人可能会造成代价高昂的错误,那些急于将ChatGPT引入运营的公司“玩过火了”。因为聊天机器人的原理是预测句子中最可能出现的单词,因此它会产生平庸的内容。这给公司带来了艰难的抉择::是要确保质量还是节约成本?“我们必须问自己:聊天机器人是否足够好?模仿是否够了?我们仅仅关心这些吗?”罗伯茨说。“我们要降低质量标准,为了什么?让公司所有者和股东分到更大的一块蛋糕吗?”广告文案撰写人利普金发现自己被ChatGPT替代之后,正在重新考虑是否继续从事办公室工作。她最初进入内容营销领域,是为了在追求创意写作的同时还能维持生计。但她发现这份工作让她感到疲惫不堪,难以按照自己的意愿写作。现在,她开始替人遛狗了。利普金说:“我要完全脱离职场休息一段时间。人们正在寻找最便宜的解决方案,但那不是真正的人,而是机器人。”(小小) ...

    业界动态 2023-06-03 17:49:48
  • 秒杀苹果Siri?曝有中国手机厂商将主动引入ChatGPT

    秒杀苹果Siri?曝有中国手机厂商将主动引入ChatGPT

    【手机中国新闻】6月2日,手机中国注意到,根据相关数码博主透露的信息,中国手机厂商传音Infinix将主动引入OpenAI旗下的ChatGPT。传音手机据悉,目前,虽然OpenAI已经在苹果的应用商店上架了ChatGPT应用,但是在Android这边,相关的应用上架仍然需要一定时间的准备...

    手机互联 2023-06-03 10:12:48
  • GPT-4变笨引爆舆论!文本代码质量都下降,OpenAI刚刚回应了质疑

    GPT-4变笨引爆舆论!文本代码质量都下降,OpenAI刚刚回应了质疑

    梦晨 克雷西 发自 凹非寺量子位 | 公众号 QbitAI大模型天花板GPT-4,它是不是……变笨了?先是少数用户提出质疑,随后大量网友表示自己也注意到了,还贴出不少证据。有人反馈,把GPT-4的3小时25条对话额度一口气用完了,都没解决自己的代码问题。无奈切换到GPT-3.5,反倒解决了。总结下大家的反馈,最主要的几种表现有:以前GPT-4能写对的代码,现在满是Bug回答问题的深度和分析变少了响应速度比以前快了这就引起不少人怀疑,OpenAI是不是为了节省成本,开始偷工减料?两个月前GPT-4是世界上最伟大的写作助手,几周前它开始变得平庸。我怀疑他们削减了算力或者把它变得没那么智能。这就不免让人想起微软新必应“出道即巅峰”,后来惨遭“前额叶切除手术”能力变差的事情……网友们相互交流自己的遭遇后,“几周之前开始变差”,成了大家的共识。一场舆论风暴同时在Hacker News、Reddit和Twitter等技术社区形成。这下官方也坐不住了。OpenAI开发者推广大使Logan Kilpatrick,出面回复了一位网友的质疑:API 不会在没有我们通知您的情况下更改。那里的模型处于静止状态。不放心的网友继续追问确认“就是说GPT-4自从3月14日发布以来都是静态的对吧?”,也得到了Logan的肯定回答。“我注意到对于某些提示词表现不一致,只是由于大模型本身的不稳定性吗?”,也得到了“Yes”的回复。但是截至目前,针对网页版GPT-4是否被降级过的两条追问都没有得到回答,并且Logan在这段时间有发布别的内容。那么事情究竟如何,不如自己上手测试一波。对于网友普遍提到GPT-4写代码水平变差,我们做了个简单实验。实测GPT-4“炼丹”本领下降了吗?3月底,我们曾实验过让GPT-4“炼丹”,用Python写一个多层感知机来实现异或门。△ShareGPT截图,界面稍有不同让GPT-4改用numpy不用框架后,第一次给出的结果不对。在修改两次代码后,运行得到了正确结果。第一次修改隐藏神经元数量,第二次把激活函数从sigmoid修改成tanh。6月2日,我们再次尝试让GPT-4完成这个任务,但换成了中文提示词。这回GPT-4第一次就没有使用框架,但给的代码仍然不对。后续只修改一次就得到正确结果,而且换成了力大砖飞的思路,直接增加训练epoch数和学习率。回答的文字部分质量也未观察到明显下降,但响应速度感觉确实有变快。由于时间有限,我们只进行了这一个实验,且由于AI本身的随机性,也并不能否定网友的观察。最早4月19日就有人反馈我们在OpenAI官方Discord频道中搜索,发现从4月下旬开始,就不时有零星用户反馈GPT-4变差了。但这些反馈并未引发大范围讨论,也没有得到官方正式回应。5月31日,Hacker News和Twitter同天开始大量有网友讨论这个问题,成为整个事件的关键节点。HackerNews一位网友指出,在GPT-4的头像还是黑色的时候更强,现在紫色头像版在修改代码时会丢掉几行。在Twitter上较早提出这个问题的,是HyperWrite(一款基于GPT API开发的写作工具)的CEO,Matt Shumer。但这条推文却引发了许多网友的共鸣,OpenAI员工回复的推文也正是针对这条。不过这些回应并没让大家满意,反而讨论的范围越来越大。比如Reddit上一篇帖子提到,原来能回答代码问题的GPT-4,现在连哪些是代码哪些是问题都分不出来了。在其他网友的追问下,帖子作者对问题出现的过程进行了概述,还附上了和GPT的聊天记录。对于OpenAI声称模型从三月就没有改动过,公开层面确实没有相关记录。ChatGPT的更新日志中,分别在1月9日、1月30日、2月13日提到了对模型本身的更新,涉及改进事实准确性和数学能力等。但自从3月14日GPT-4发布之后就没提到模型更新了,只有网页APP功能调整和添加联网模式、插件模式、苹果APP等方面的变化。假设真如OpenAI所说,GPT-4模型本身的能力没有变化,那么这么多人都感觉它表现变差是怎么回事呢?很多人也给出了自己的猜想。第一种可能的原因是心理作用。Keras创始人François Chollet就表示,不是GPT的表现变差,而是大家度过了最初的惊喜期,对它的期待变高了。Hacker News上也有网友持相同观点,并补充到人们的关注点发生了改变,对GPT失误的敏感度更高了。抛开人们心理感受的差异,也有人怀疑API版本和网页版本不一定一致,但没什么实据。还有一种猜测是在启用插件的情况下,插件的额外提示词对要解决的问题来说可能算一种污染。△WebPilot插件中的额外提示词这位网友就表示,在他看来GPT表现变差正是从插件功能开始公测之后开始的。也有人向OpenAI员工询问是否模型本身没变,但推理参数是否有变化?量子位也曾偶然“拷问”出ChatGPT在iOS上的系统提示词与网页版并不一致。如果在手机端开启一个对话,它会知道自己在通过手机与你交互。会把回答控制在一到两句话,除非需要长的推理。不会使用表情包,除非你明确要求他使用。△不一定成功,大概率拒绝回答那么如果在网页版继续一个在iOS版开启的对话而没意识到,就可能观察到GPT-4回答变简单了。总之,GPT-4自发布以来到底有没有变笨,目前还是个未解之谜。但有一点可以确定:3月14日起大家上手玩到的GPT-4,从一开始就不如论文里的。与人类对齐让AI能力下降微软研究院发表的150多页刷屏论文《AGI的火花:GPT-4早期实验》中明确:他们早在GPT-4开发未完成时就得到了测试资格,并进行了长期测试。后来针对论文中很多惊艳例子,网友都不能成功用公开版GPT-4复现。目前学术界有个观点是,后来的RLHF训练虽然让GPT-4更与人类对齐——也就更听从人类指示和符合人类价值观——但也让它自身的推理等能力变差。论文作者之一、微软科学家张弋在中文播客节目《What’s Next|科技早知道》S7E11期中也提到:那个版本的模型,比现在外面大家都可以拿得到的GPT-4还要更强,强得非常非常多。举例来说,微软团队在论文中提到,他们每隔相同一段时间就让GPT-4使用LaTeX中的TikZ画一个独角兽来追踪GPT-4能力的变化。论文中展示的最后一个结果,画得已经相当完善。但论文一作Sebastien Bubeck后续在MIT发表演讲时透露了更多信息。后来当OpenAI开始关注安全问题的时候,后续版本在这个任务中变得越来越糟糕了。与人类对齐但并不降低AI自身能力上限的训练方法,也成了现在很多团队的研究方向,但还在起步阶段。除了专业研究团队之外,关心AI的网友们也在用自己的办法追踪着AI能力的变化。有人每天让GPT-4画一次独角兽,并在网站上公开记录。从4月12日开始,直到现在也还没看出来个独角兽的大致形态。当然网站作者表示,自己让GPT-4使用SVG格式画图,与论文中的TikZ格式不一样也有影响。并且4月画的与现在画的似乎只是一样差,也没看出来明显退步。最后来问问大家,你是GPT-4用户么?最近几周有感到GPT-4能力下降么?欢迎在评论区聊聊。Bubeck演讲:https://www...

    智能设备 2023-06-03 10:09:46
  • AI席卷华尔街:对冲基金部署ChatGPT,银行展开“军备竞赛”

    AI席卷华尔街:对冲基金部署ChatGPT,银行展开“军备竞赛”

    ·华尔街正在探索以ChatGPT为主的最新流行工具,希望通过提供足量的金融信息,使机器达到合理地为期权定价、建立投资组合或分析公司新闻的能力水平。·在最热衷于AI的银行中,大约40%的空缺职位是与AI相关的招聘,如数据工程师、量化分析师以及治理岗位。包括亿万富翁投资者沃伦·巴菲特在内的许多人认为,热衷于采用复杂的AI系统是未来风险降临的先兆。人工智能革命正在金融界上演。对冲基金公司正在部署ChatGPT处理繁重工作,德意志银行使用人工智能(AI)扫描客户的投资组合,荷兰国际集团利用AI筛选潜在的违约方。摩根士丹利表示,正在安全、可控的环境中试验运用AI技术。与此同时,摩根大通正在广泛吸纳AI人才,提供的相关招聘职位多于任何竞争对手。“苦活、累活”都交给AI事实上,AI早已应用于华尔街的各项工作中,比如计算信贷风险的机器学习算法。而现阶段,华尔街正在探索以ChatGPT为主的最新流行工具,希望通过提供足量的金融信息,使机器达到合理地为期权定价、建立投资组合或分析公司新闻的能力水平。金融从业者需要处理大量财经文本数据,如新闻、报告、评级等,甚至更深层次的程序代码编写工作, AI正在逐步接手。据彭博社5月31日报道,一些对冲基金公司表示,生成式AI已被用于处理市场研究审查、基础代码编写与基金业绩总结等普通任务,这些曾经“折磨”华尔街初级员工的“苦活、累活”都将交由AI消化、完成。系统性量化对冲基金Campbell & Co的首席执行官凯文·科尔(Kevin Cole)透露,该公司的量化分析师们使用大语言模型总结内部研究报告。凯文表示,AI在补全代码、编辑、查错等方面的能力非常强大。不过,人类员工仍会进行干预。目前的生成式智能工具,尚没有达到能改变人类日常投资方法的地步。据彭博社6月1日报道,帮助高盛集团和荷兰国际集团等公司开展AI业务的公司Eigen Technologies表示,与去年同期相比,2023年第一季度来自银行的咨询增加了五倍。咨询企业Evident的首席执行官兼联合创始人亚历山德拉·穆萨维扎德(Alexandra Mousavizadeh)表示,2022年11月ChatGPT的发布,“让每个人——董事会、首席执行官和银行的领导层——更加意识到这是一个改变游戏规则的因素”。她将这种情况描述为“人工智能军备竞赛”。德意志银行正在部署深度学习技术,以分析国际私人银行客户是否过度投资于某种特定资产,并为个人客户匹配合适的基金、债券或股票。在遵守法规的前提下,真人顾问会向顾客传递AI生成的建议。德意志国际私人银行数据解决方案全球负责人克里斯汀·安妮·布雷姆克(Kirsten-Anne Bremke)表示:“我非常喜欢这种将人工智能与人类智能结合起来的方式。”摩根大通出台了类似的计划。据知情人士透露,该公司今年5月为一项类似于ChatGPT的服务申请了专利,它可以帮助投资者选择特定的股票,目前该项目还处于初期阶段。法国巴黎银行正在使用聊天机器人回答客户问题,利用AI检测并预防欺诈和洗钱行为。法国兴业银行则利用AI的计算能力扫描资本市场中的潜在不当行为。今年4月,摩根士丹利表示,已经为一个模型申请了专利,该模型以侦测货币政策方向为目标,通过使用AI技术将美联储的信息划分为鹰派或鸽派。3月21日,华尔街投行高盛的首席信息官马可·阿让蒂(Marco Argenti)表示,内部开发人员已开始使用生成式AI进行编程。“现在这项技术还处于早期阶段。我们不会立即将所有重要工作都交由AI来完成,但当务之急是真正尝试并了解AI的潜力。”阿让蒂感叹道,“我从事技术工作已经将近40年,这是我见过的最大的颠覆之一——可能与互联网、应用程序、云计算相媲美。”风险与安全问题但这种风潮还是引发了对金融AI透明度和有效性的担忧。包括亿万富翁投资者沃伦·巴菲特(Warren Buffett)在内的许多人认为,热衷于采用复杂的AI系统是未来风险降临的先兆。银行家负有不根据不可靠信息进行交易的受托责任。纽约Friedman Kaplan Seiler Adelman & Robbins律师事务所的合伙人安妮·博蒙特(Anne Beaumont)表示,随着AI应用的扩大,这是一个问题。“当你在不知道问题是什么的情况下使用了AI回答时,你如何向投资者和监管机构证明你已经履行了职责?”今年4月,韩国三星电子被曝发生了3起员工使用ChatGPT导致机密数据外泄的事件。该公司员工将公司系统程序代码上传至ChatGPT,要求AI帮助修复错误和改善程序代码,并将会议记录输入至ChatGPT,指示AI帮忙做重点整理,导致工厂性能、产量等机密数据变成GPT模型训练数据的一部分。博通咨询研究院首席分析师王蓬博曾指出,金融从业者使用ChatGPT,即使用户是无意识的,也很有可能造成个人信息和数据的泄露。除此以外,无论是GPT-4,还是其他大型语言模型,均存在AI“幻觉(Hallucination)”问题,偶尔会无中生有、捏造信息。假如分析师使用ChatGPT来生成研究报告,内容看似相当可信,但如果报告中发出了虚假信息,错误成为一家上市公司的利空或利多消息,将造成非常严重的后果。此外,AI模型直接从互联网抓取信息训练数据,有可能夹杂了某些版权作品。对银行或提供财经信息的通讯社而言,此举有侵权之嫌,可能会损害公司声誉。“金融行业是一个严监管的行业,对于个人信息和相关的商业数据特别敏感。”王蓬博说,金融机构使用ChatGPT类产品,要先进行可控范围的评估,做好预防措施。咨询公司麦肯锡的合伙人卡罗·乔瓦尼(Carlo Giovine)表示,在与银行和保险公司合作时,他们会重新设计风险框架,以应对知识产权方面的考虑、不确定的监管环境以及AI“幻觉”等风险。Campbell & Co的科尔表示,公司内部正在试验使用一套开源模型,虽然处理能力不及ChatGPT,但胜在整套系统能够在本地部署、本地运行。科尔称:“我们必须非常小心此类工具带来的泄露风险。”开发和运行成本高近年来,银行业对于利用技术获取优势并不陌生,纷纷招募数据科学家、机器学习专家甚至天体物理学家。如今,这些投资正开始取得成果。美国银行首席执行官布莱恩·莫伊尼汉(Brian Moynihan)4月表示,AI可能带来“极大的好处”,有助于减少员工数量,但同时也要谨慎行事。巴克莱银行在金融AI领域仍处于“认真研究”阶段。首席执行官文卡塔克里什南(C.S...

    智能设备 2023-06-03 10:08:50
  • 苹果AppleWatch新专利:背面配摄像头,可拍照生成虚拟头像

    苹果AppleWatch新专利:背面配摄像头,可拍照生成虚拟头像

    IT之家 6 月 2 日消息,根据美国商标和专利局(USPTO)公示的清单,苹果公司近日获得了一项关于 Apple Watch 的技术专利。专利描述了一个奇怪的应用场景 ,苹果计划在 Apple Watch 背面配备摄像头,允许佩戴者拍摄 Face ID 图像,并生成可在 Apple Watch、苹果 AR / VR 头显中使用的 2D / 3D 虚拟头像...

    智能设备 2023-06-02 11:23:45
  • 魏牌新摩卡DHT-PHEV售价23.18万元,WLTC综合续航超1100km

    魏牌新摩卡DHT-PHEV售价23.18万元,WLTC综合续航超1100km

    6月2日消息,魏牌大五座旗舰电动SUV新摩卡DHT-PHEV于北京上市。新车提供两驱长续航版车型,官方售价23.18万元,同时推出5重上市权益。魏牌CEO陈思英在发布会上表示:“新摩卡重新定义了大五座旗舰电动SUV,是一辆更超值的大五座SUV。”新摩卡启动预订7天时间,订单量已突破万辆。新摩卡4881*1960*1690mm车身尺寸,2915mm轴距,后排横向尺寸1450mm,可同时乘坐3人,后排乘坐人员和前排乘坐的水平方向距离943mm;510mm前排坐垫长度、500mm后排坐垫长度,可以提供更好的身体支撑。此外,新摩卡标配七大NVH静音技术、PM2...

    业界动态 2023-06-02 11:03:54
  • 任天堂Switch模拟器YuzuEmulator登陆安卓平台

    任天堂Switch模拟器YuzuEmulator登陆安卓平台

    IT之家 5 月 31 日消息,近日 Yuzu 开发团队宣布,他们的任天堂 Switch 模拟器已经正式支持安卓平台。Yuzu 是目前 PC 上最受欢迎的 Switch 模拟器之一,能够让用户在更强大的硬件上玩自己喜爱的 Switch 游戏,现在其终于登陆了安卓平台...

    智能设备 2023-05-31 10:53:51
  • 不锈钢材质,苹果早期AppleWatch原型曝光

    不锈钢材质,苹果早期AppleWatch原型曝光

    IT之家 5 月 31 日消息,原型收藏家 Kosutami 在分享 MagSafe 磁吸充电器原型的时候,还分享了一款不锈钢材质的 Apple Watch 手表金属外壳。他在推文中表示,这款 Apple Watch 是早期“头脑风暴”开发过程中的产物,其尺寸并非 38mm 或者 42mm,而是介于两者之间...

    手机互联 2023-05-31 07:54:43
  • 英伟达AI智能体接入GPT-4,完胜AutoGPT!自主写代码独霸我的世界,无需人类插手

    英伟达AI智能体接入GPT-4,完胜AutoGPT!自主写代码独霸我的世界,无需人类插手

    新智元报道编辑:Aeneas 好困【新智元导读】给游戏行业来点GPT-4式震撼?这个叫Voyager的智能体不仅可以根据游戏的反馈自主训练,而且还能自行写代码推动游戏任务。继斯坦福的25人小镇后,AI智能体又出爆款新作了。最近,英伟达首席科学家Jim Fan等人把GPT-4整进了「我的世界」(Minecraft)——提出了一个全新的AI智能体Voyager。Voyager的厉害之处在于,它不仅性能完胜AutoGPT,而且还可以在游戏中进行全场景的终身学习!比起之前的SOTA,Voyager获得的物品多出了3.3倍,旅行距离变长了2...

    智能设备 2023-05-27 16:03:18
  • 这个比ChatGPT情商还高的AI,我可以和它聊三天三夜

    这个比ChatGPT情商还高的AI,我可以和它聊三天三夜

    狂拿考试高分让学生瑟瑟发抖,加入联网功能叫传统搜索战战兢兢,升级工作全家桶搞得打工人又悲又喜....

    智能设备 2023-05-27 16:02:52
  • GPT-4玩《我的世界》15倍速攀科技,不看画面全靠代码操作

    GPT-4玩《我的世界》15倍速攀科技,不看画面全靠代码操作

    克雷西 发自 凹非寺量子位 | 公众号 QbitAI把GPT-4放进一个虚拟世界会怎么样?比如《我的世界》。英伟达开发最新方法Voyager,在游戏中点亮科技树的速度是此前方法的15.3倍,同时获得的独特物品是此前的3...

    智能设备 2023-05-27 16:02:52
  • 数学论证GPT-4不是随机鹦鹉:真如此的话整个宇宙都会坍缩

    数学论证GPT-4不是随机鹦鹉:真如此的话整个宇宙都会坍缩

    克雷西 发自 凹非寺量子位 | 公众号 QbitAI对于ChatGPT的工作原理,一个常见的解释是根据统计学规律预测下一个词。但最近一位叫Jacob Bayless的工程师用数学方法得出惊人结论:若是如此,所需的信息量足以让整个宇宙都坍塌成黑洞。这一数据量是50000^8000,根据贝肯斯坦上限(Bekenstein bound)原理,如果把这些信息分配到空间当中,所需要的信息密度已经远超宇宙能承受的最大值。而这仅仅是把数据存储起来的消耗,更不必说还要进行运算了。而ChatGPT与单纯统计预测的区别,可以做这样的类比:如果天文学家通过历史观测记录推算出月食的周期,这可以算是统计学。但当他们总结出牛顿万有引力定律的时候,就已经超越了统计学。什么是“随机鹦鹉”一个流传很广的说法,所谓大语言模型实际上相当于一个“随机鹦鹉”——与我们观察其输出时的情况相反,语言模型只是将其在庞大的训练数据中观察到的语素胡乱拼接在一起,根据概率生成文本,但不清楚文字背后的任何含义,就像一个随机的鹦鹉。出自论文On The Dangers of Stochastic Parrots: Can Language Models Be Too Big这对过去的语言模型,或许确实成立。比如曾经流行的n-gram算法。比如当我们在搜索引擎中进行搜索时,出现的联想词就能用此方法实现。具体来说,下面的三行文本中,第一行纯粹是随机生成,第二行考虑了单词在英语中整体的出现概率,第三行则考虑了单词在前一个词后面出现的概率。n = 0: RECEIVE FALL SURPRISED FRIDAY INGREDIENT…n = 1: REPRESENTING AND SPEEDILY IS AN GOOD…n = 2: THE CHARACTER OF THIS POINT IS THEREFORE…不难看出,随着n值的升高,文本越来越接近人类语言。而n-gram模型根本不需要掌握其中的语义或理解其中的抽象概念,就能生成像模像样的句子。据此有人猜想,GPT-4会不会也只是一种高级的n-gram呢?Bayless提出,GPT必须学会抽象才能有如今的效果,至少GPT-4肯定如此。GPT-4不只是“随机鹦鹉”要证明这一点,可以先看下棋机器人的例子。如果有一种下棋机器人,存储了巨量棋谱数据,对于每个棋局都能推荐下一步。那它就能通过“背谱法”模仿其他任何棋手或程序的下法比如Stockfish是最先进的国际象棋程序,如果仅通过对战而不看源码,是无法确定Stockfish是否在背谱。但实际上,包含所有情形和步骤的棋谱数据量可能超过2^154。而Stockfish的程序只占用了不到50MB的空间,根本不可能存下需要的所有棋谱。所以Stockfish肯定是通过更高级的方法来实现下棋的。人类语言的复杂度远超过棋类游戏,因此GPT的数据量更是同理。仅在是上一代的GPT-3的token字典中就有超过5万token。如果对每个词都逐一建立统计信息,n-gram模型中n值将高达8000。届时,需要存储的情景数量将达到50000^8000。正如文章开头所提到,这简直是天文数字,足以让整个宇宙坍缩。因此,GPT是“随机鹦鹉”的猜测在理论上得到了一定程度的批驳。“随机鹦鹉”达不到的高度仅在理论上进行说明是不充分的,因此研究人员还进行了两个实验,意图证明大模型在学习过程中已经抽象出了算法。第一个实验关于一道经典的农夫过河问题。一个农夫有一条船,和狼、羊、菜,农夫要把这3样东西运到河到另一边,农夫每次最多只能通过这个船运一样东西,要防止狼吃羊、羊吃白菜(即不能在没有农夫在的情况下同时在同一岸边),该怎么过?研究人员将这个问题中的农夫、船、河分别替换成地球人、虫洞和银河系。狼、羊和菜则分别换成火星人、金星人和月球人。替换的目的是因为互联网上不太可能出现类似语料,可以判断大语言模型是不是真的掌握了通用方法。如果GPT不是“随机鹦鹉”,那么它至少不会犯下只有“随机鹦鹉”才会犯的错误。GPT-4针对替换后的问题给出了正确的回答,GPT-3.5则没有。但它们并没有犯研究人员预想的“鹦鹉”错误——即在回答中出现狼、船、河等已被替换掉的词语。回答中使用的句子,也无法在互联网中被检索到。这些现象都证明了现在的大语言模型的生成方式已经超越了“概率预测”。第二个实验则是数字排序。如果让GPT学习数字排序,它们究竟是只会记住给出过的数字顺序,还是真的研究出排序算法呢?其实只要从GPT的输出当中就可以看出来了。假如从1-100中随机选择10个数字,并将其顺序打乱,将一共有这么多种情形:如果再考虑数字的重复出现,又或者数字的数量发生变化,根本不可能存储如此之多的情形。因此,只要GPT能够针对未知的排序问题给出正确的回答,便可以说明它们是真的研究出了排序算法。研究人员训练了一款特斯拉前AI总监Andrej Kaparthy发明的语言模型nanoGPT,专门让它做数字排序。结果显示,随着训练步数的增加,模型给出的数字顺序越来越完美。虽然在训练步数达到16万左右时突然出现了大量错误,但也很快得到了纠正。这说明这款模型并不是仅仅根据学习的素材对未知的数字进行排序,而是已经掌握了背后的方法。这个测试只是在一台笔记本电脑、算力非常有限的GPU上进行的。更不必说GPT-4了。参考链接:https://jbconsulting...

    智能设备 2023-05-27 16:02:19

站长搜索

http://www.adminso.com

Copyright @ 2007~2024 All Rights Reserved.

Powered By 站长搜索

打开手机扫描上面的二维码打开手机版


使用手机软件扫描微信二维码

关注我们可获取更多热点资讯

站长搜索目录系统技术支持