-
秒杀苹果Siri?曝有中国手机厂商将主动引入ChatGPT
【手机中国新闻】6月2日,手机中国注意到,根据相关数码博主透露的信息,中国手机厂商传音Infinix将主动引入OpenAI旗下的ChatGPT。传音手机据悉,目前,虽然OpenAI已经在苹果的应用商店上架了ChatGPT应用,但是在Android这边,相关的应用上架仍然需要一定时间的准备...
手机互联 2023-06-03 10:12:48 -
GPT-4变笨引爆舆论!文本代码质量都下降,OpenAI刚刚回应了质疑
梦晨 克雷西 发自 凹非寺量子位 | 公众号 QbitAI大模型天花板GPT-4,它是不是……变笨了?先是少数用户提出质疑,随后大量网友表示自己也注意到了,还贴出不少证据。有人反馈,把GPT-4的3小时25条对话额度一口气用完了,都没解决自己的代码问题。无奈切换到GPT-3.5,反倒解决了。总结下大家的反馈,最主要的几种表现有:以前GPT-4能写对的代码,现在满是Bug回答问题的深度和分析变少了响应速度比以前快了这就引起不少人怀疑,OpenAI是不是为了节省成本,开始偷工减料?两个月前GPT-4是世界上最伟大的写作助手,几周前它开始变得平庸。我怀疑他们削减了算力或者把它变得没那么智能。这就不免让人想起微软新必应“出道即巅峰”,后来惨遭“前额叶切除手术”能力变差的事情……网友们相互交流自己的遭遇后,“几周之前开始变差”,成了大家的共识。一场舆论风暴同时在Hacker News、Reddit和Twitter等技术社区形成。这下官方也坐不住了。OpenAI开发者推广大使Logan Kilpatrick,出面回复了一位网友的质疑:API 不会在没有我们通知您的情况下更改。那里的模型处于静止状态。不放心的网友继续追问确认“就是说GPT-4自从3月14日发布以来都是静态的对吧?”,也得到了Logan的肯定回答。“我注意到对于某些提示词表现不一致,只是由于大模型本身的不稳定性吗?”,也得到了“Yes”的回复。但是截至目前,针对网页版GPT-4是否被降级过的两条追问都没有得到回答,并且Logan在这段时间有发布别的内容。那么事情究竟如何,不如自己上手测试一波。对于网友普遍提到GPT-4写代码水平变差,我们做了个简单实验。实测GPT-4“炼丹”本领下降了吗?3月底,我们曾实验过让GPT-4“炼丹”,用Python写一个多层感知机来实现异或门。△ShareGPT截图,界面稍有不同让GPT-4改用numpy不用框架后,第一次给出的结果不对。在修改两次代码后,运行得到了正确结果。第一次修改隐藏神经元数量,第二次把激活函数从sigmoid修改成tanh。6月2日,我们再次尝试让GPT-4完成这个任务,但换成了中文提示词。这回GPT-4第一次就没有使用框架,但给的代码仍然不对。后续只修改一次就得到正确结果,而且换成了力大砖飞的思路,直接增加训练epoch数和学习率。回答的文字部分质量也未观察到明显下降,但响应速度感觉确实有变快。由于时间有限,我们只进行了这一个实验,且由于AI本身的随机性,也并不能否定网友的观察。最早4月19日就有人反馈我们在OpenAI官方Discord频道中搜索,发现从4月下旬开始,就不时有零星用户反馈GPT-4变差了。但这些反馈并未引发大范围讨论,也没有得到官方正式回应。5月31日,Hacker News和Twitter同天开始大量有网友讨论这个问题,成为整个事件的关键节点。HackerNews一位网友指出,在GPT-4的头像还是黑色的时候更强,现在紫色头像版在修改代码时会丢掉几行。在Twitter上较早提出这个问题的,是HyperWrite(一款基于GPT API开发的写作工具)的CEO,Matt Shumer。但这条推文却引发了许多网友的共鸣,OpenAI员工回复的推文也正是针对这条。不过这些回应并没让大家满意,反而讨论的范围越来越大。比如Reddit上一篇帖子提到,原来能回答代码问题的GPT-4,现在连哪些是代码哪些是问题都分不出来了。在其他网友的追问下,帖子作者对问题出现的过程进行了概述,还附上了和GPT的聊天记录。对于OpenAI声称模型从三月就没有改动过,公开层面确实没有相关记录。ChatGPT的更新日志中,分别在1月9日、1月30日、2月13日提到了对模型本身的更新,涉及改进事实准确性和数学能力等。但自从3月14日GPT-4发布之后就没提到模型更新了,只有网页APP功能调整和添加联网模式、插件模式、苹果APP等方面的变化。假设真如OpenAI所说,GPT-4模型本身的能力没有变化,那么这么多人都感觉它表现变差是怎么回事呢?很多人也给出了自己的猜想。第一种可能的原因是心理作用。Keras创始人François Chollet就表示,不是GPT的表现变差,而是大家度过了最初的惊喜期,对它的期待变高了。Hacker News上也有网友持相同观点,并补充到人们的关注点发生了改变,对GPT失误的敏感度更高了。抛开人们心理感受的差异,也有人怀疑API版本和网页版本不一定一致,但没什么实据。还有一种猜测是在启用插件的情况下,插件的额外提示词对要解决的问题来说可能算一种污染。△WebPilot插件中的额外提示词这位网友就表示,在他看来GPT表现变差正是从插件功能开始公测之后开始的。也有人向OpenAI员工询问是否模型本身没变,但推理参数是否有变化?量子位也曾偶然“拷问”出ChatGPT在iOS上的系统提示词与网页版并不一致。如果在手机端开启一个对话,它会知道自己在通过手机与你交互。会把回答控制在一到两句话,除非需要长的推理。不会使用表情包,除非你明确要求他使用。△不一定成功,大概率拒绝回答那么如果在网页版继续一个在iOS版开启的对话而没意识到,就可能观察到GPT-4回答变简单了。总之,GPT-4自发布以来到底有没有变笨,目前还是个未解之谜。但有一点可以确定:3月14日起大家上手玩到的GPT-4,从一开始就不如论文里的。与人类对齐让AI能力下降微软研究院发表的150多页刷屏论文《AGI的火花:GPT-4早期实验》中明确:他们早在GPT-4开发未完成时就得到了测试资格,并进行了长期测试。后来针对论文中很多惊艳例子,网友都不能成功用公开版GPT-4复现。目前学术界有个观点是,后来的RLHF训练虽然让GPT-4更与人类对齐——也就更听从人类指示和符合人类价值观——但也让它自身的推理等能力变差。论文作者之一、微软科学家张弋在中文播客节目《What’s Next|科技早知道》S7E11期中也提到:那个版本的模型,比现在外面大家都可以拿得到的GPT-4还要更强,强得非常非常多。举例来说,微软团队在论文中提到,他们每隔相同一段时间就让GPT-4使用LaTeX中的TikZ画一个独角兽来追踪GPT-4能力的变化。论文中展示的最后一个结果,画得已经相当完善。但论文一作Sebastien Bubeck后续在MIT发表演讲时透露了更多信息。后来当OpenAI开始关注安全问题的时候,后续版本在这个任务中变得越来越糟糕了。与人类对齐但并不降低AI自身能力上限的训练方法,也成了现在很多团队的研究方向,但还在起步阶段。除了专业研究团队之外,关心AI的网友们也在用自己的办法追踪着AI能力的变化。有人每天让GPT-4画一次独角兽,并在网站上公开记录。从4月12日开始,直到现在也还没看出来个独角兽的大致形态。当然网站作者表示,自己让GPT-4使用SVG格式画图,与论文中的TikZ格式不一样也有影响。并且4月画的与现在画的似乎只是一样差,也没看出来明显退步。最后来问问大家,你是GPT-4用户么?最近几周有感到GPT-4能力下降么?欢迎在评论区聊聊。Bubeck演讲:https://www...
智能设备 2023-06-03 10:09:46 -
日本:敞开训练AI不用管版权,LeCun:机器学习天堂
西风 发自 凹非寺量子位 | 公众号 QbitAI大模型狂潮下,日本政府坐不住了。直接宣布:不会对训练AI所使用的数据实施版权保护。这也就意味着,训练AI可以使用任何数据。不管是非营利还是商业目的,不论是否是复制以外的行为,只要你能搞得到,你就可以用,甚至从非法网站获得的数据也可以用。连Yann LeCun看到消息后都发文表示:日本已经成为了机器学习的天堂。确实,不少日本学术界和商界人士那是敲锣打鼓。毕竟想要在全球大模型舞台上分得一杯羹,数据本就是一大关键要素。但这引起了动漫和艺术创作者的担忧。早在四个月前,日本参议院议员、职业漫画家赤松健在YouTube上发布了一个讲用AI进行图像生成的视频,就有提到过侵权问题,以及漫画师的担忧。在那时,就有日本画友认为:希望能开发出超越“Novel AI”的AI插图服务。当然,这个AI服务的训练数据集中不能使用未经授权的转载图片。但现在,对训练AI所使用的数据集的版权限制已放开。用无视版权的方式“弯道超车”其实,日本并不是第一次在版权保护上有所松懈。日本曾经因为过于严苛的版权保护,导致版权转让极为不便,需要遵循诸多条条框框,盗版问题也很严重。之后,日本在2019年修正了版权保护制度。即便如此,这次日本被爆在训练AI方面的大尺度政策,还是令人惊讶。Technomancers.ai报道称:似乎日本认为版权问题,尤其是与动漫和其它视觉媒体相关的版权问题,阻碍了该国在人工智能技术方面的进展。作为回应,日本决定全力以赴,选择无版权的方式来保持竞争力。尽管日本目前是世界第三大经济体,但自1990年代以来,日本的经济增长一直缓慢。此时,若人工智能可以得到有效发展,就有可能在短时间内将日本的GDP提高50%或者更多。对于日本来说,这是一个令人兴奋的前景。日本还试图把手伸向西方国家的数据库,这也是日本发展人工智能的关键。相较而言,日本的日语训练数据量明显少于西方可用的英语数据资源。日本拥有很受欢迎动漫等文化内容。在这点上,日本的立场似乎很明确:如果西方利用日本文化来训练AI,那么西方文化资源也应该可供日本训练AI。AI监管辩论还在继续TB级别的训练数据是维系大模型进化的一大核心要素。毕竟可用的高质量训练数据越多,AI 模型就越好。而关于大模型训练数据不透明等问题一直是大家讨论的热点。大模型的野蛮生长势必要带来人们对其安全合规的考量,侵权问题就是需要监管的问题之一。而此次日本这一举动也为监管辩论增添了转折。针对版权问题,美国版权局(USCO)在三月份也发布了新规。但并不是对版权进行保护,而是称:人工智能(AI)自动生成的作品不受版权法保护。因为,和人工参与创作的Photoshop作品不同,通过Midjourney、Stability AI、ChatGPT等平台生成的作品完全由AI自动完成,而且训练的数据是基于人类创作的作品,因此不受版权法保护。对此,你怎么看?参考链接:[1]https://technomancers...
智能设备 2023-06-03 10:08:55 -
AI席卷华尔街:对冲基金部署ChatGPT,银行展开“军备竞赛”
·华尔街正在探索以ChatGPT为主的最新流行工具,希望通过提供足量的金融信息,使机器达到合理地为期权定价、建立投资组合或分析公司新闻的能力水平。·在最热衷于AI的银行中,大约40%的空缺职位是与AI相关的招聘,如数据工程师、量化分析师以及治理岗位。包括亿万富翁投资者沃伦·巴菲特在内的许多人认为,热衷于采用复杂的AI系统是未来风险降临的先兆。人工智能革命正在金融界上演。对冲基金公司正在部署ChatGPT处理繁重工作,德意志银行使用人工智能(AI)扫描客户的投资组合,荷兰国际集团利用AI筛选潜在的违约方。摩根士丹利表示,正在安全、可控的环境中试验运用AI技术。与此同时,摩根大通正在广泛吸纳AI人才,提供的相关招聘职位多于任何竞争对手。“苦活、累活”都交给AI事实上,AI早已应用于华尔街的各项工作中,比如计算信贷风险的机器学习算法。而现阶段,华尔街正在探索以ChatGPT为主的最新流行工具,希望通过提供足量的金融信息,使机器达到合理地为期权定价、建立投资组合或分析公司新闻的能力水平。金融从业者需要处理大量财经文本数据,如新闻、报告、评级等,甚至更深层次的程序代码编写工作, AI正在逐步接手。据彭博社5月31日报道,一些对冲基金公司表示,生成式AI已被用于处理市场研究审查、基础代码编写与基金业绩总结等普通任务,这些曾经“折磨”华尔街初级员工的“苦活、累活”都将交由AI消化、完成。系统性量化对冲基金Campbell & Co的首席执行官凯文·科尔(Kevin Cole)透露,该公司的量化分析师们使用大语言模型总结内部研究报告。凯文表示,AI在补全代码、编辑、查错等方面的能力非常强大。不过,人类员工仍会进行干预。目前的生成式智能工具,尚没有达到能改变人类日常投资方法的地步。据彭博社6月1日报道,帮助高盛集团和荷兰国际集团等公司开展AI业务的公司Eigen Technologies表示,与去年同期相比,2023年第一季度来自银行的咨询增加了五倍。咨询企业Evident的首席执行官兼联合创始人亚历山德拉·穆萨维扎德(Alexandra Mousavizadeh)表示,2022年11月ChatGPT的发布,“让每个人——董事会、首席执行官和银行的领导层——更加意识到这是一个改变游戏规则的因素”。她将这种情况描述为“人工智能军备竞赛”。德意志银行正在部署深度学习技术,以分析国际私人银行客户是否过度投资于某种特定资产,并为个人客户匹配合适的基金、债券或股票。在遵守法规的前提下,真人顾问会向顾客传递AI生成的建议。德意志国际私人银行数据解决方案全球负责人克里斯汀·安妮·布雷姆克(Kirsten-Anne Bremke)表示:“我非常喜欢这种将人工智能与人类智能结合起来的方式。”摩根大通出台了类似的计划。据知情人士透露,该公司今年5月为一项类似于ChatGPT的服务申请了专利,它可以帮助投资者选择特定的股票,目前该项目还处于初期阶段。法国巴黎银行正在使用聊天机器人回答客户问题,利用AI检测并预防欺诈和洗钱行为。法国兴业银行则利用AI的计算能力扫描资本市场中的潜在不当行为。今年4月,摩根士丹利表示,已经为一个模型申请了专利,该模型以侦测货币政策方向为目标,通过使用AI技术将美联储的信息划分为鹰派或鸽派。3月21日,华尔街投行高盛的首席信息官马可·阿让蒂(Marco Argenti)表示,内部开发人员已开始使用生成式AI进行编程。“现在这项技术还处于早期阶段。我们不会立即将所有重要工作都交由AI来完成,但当务之急是真正尝试并了解AI的潜力。”阿让蒂感叹道,“我从事技术工作已经将近40年,这是我见过的最大的颠覆之一——可能与互联网、应用程序、云计算相媲美。”风险与安全问题但这种风潮还是引发了对金融AI透明度和有效性的担忧。包括亿万富翁投资者沃伦·巴菲特(Warren Buffett)在内的许多人认为,热衷于采用复杂的AI系统是未来风险降临的先兆。银行家负有不根据不可靠信息进行交易的受托责任。纽约Friedman Kaplan Seiler Adelman & Robbins律师事务所的合伙人安妮·博蒙特(Anne Beaumont)表示,随着AI应用的扩大,这是一个问题。“当你在不知道问题是什么的情况下使用了AI回答时,你如何向投资者和监管机构证明你已经履行了职责?”今年4月,韩国三星电子被曝发生了3起员工使用ChatGPT导致机密数据外泄的事件。该公司员工将公司系统程序代码上传至ChatGPT,要求AI帮助修复错误和改善程序代码,并将会议记录输入至ChatGPT,指示AI帮忙做重点整理,导致工厂性能、产量等机密数据变成GPT模型训练数据的一部分。博通咨询研究院首席分析师王蓬博曾指出,金融从业者使用ChatGPT,即使用户是无意识的,也很有可能造成个人信息和数据的泄露。除此以外,无论是GPT-4,还是其他大型语言模型,均存在AI“幻觉(Hallucination)”问题,偶尔会无中生有、捏造信息。假如分析师使用ChatGPT来生成研究报告,内容看似相当可信,但如果报告中发出了虚假信息,错误成为一家上市公司的利空或利多消息,将造成非常严重的后果。此外,AI模型直接从互联网抓取信息训练数据,有可能夹杂了某些版权作品。对银行或提供财经信息的通讯社而言,此举有侵权之嫌,可能会损害公司声誉。“金融行业是一个严监管的行业,对于个人信息和相关的商业数据特别敏感。”王蓬博说,金融机构使用ChatGPT类产品,要先进行可控范围的评估,做好预防措施。咨询公司麦肯锡的合伙人卡罗·乔瓦尼(Carlo Giovine)表示,在与银行和保险公司合作时,他们会重新设计风险框架,以应对知识产权方面的考虑、不确定的监管环境以及AI“幻觉”等风险。Campbell & Co的科尔表示,公司内部正在试验使用一套开源模型,虽然处理能力不及ChatGPT,但胜在整套系统能够在本地部署、本地运行。科尔称:“我们必须非常小心此类工具带来的泄露风险。”开发和运行成本高近年来,银行业对于利用技术获取优势并不陌生,纷纷招募数据科学家、机器学习专家甚至天体物理学家。如今,这些投资正开始取得成果。美国银行首席执行官布莱恩·莫伊尼汉(Brian Moynihan)4月表示,AI可能带来“极大的好处”,有助于减少员工数量,但同时也要谨慎行事。巴克莱银行在金融AI领域仍处于“认真研究”阶段。首席执行官文卡塔克里什南(C.S...
智能设备 2023-06-03 10:08:50 -
苹果WWDC23即将召开,Meta抢先发布新款VR头戴式装置
《华尔街日报》6月2日消息,Meta首席执行官扎克伯格发布了该公司最新版的虚拟现实头戴式装置Meta Quest 3。产品采用高通新芯片,装置本身比前一代薄了40%,显示屏和分辨率也有所提升...
智能设备 2023-06-02 11:23:41 -
Meta头显设备首次亮相,或成苹果最大竞争对手
Apple Inc.头显的推出无疑将成为今年混合现实领域的最大新闻。但苹果不会独占市场。Meta Platforms Inc...
手机互联 2023-05-30 11:43:58 -
实时处理照片和视频等,英特尔演示MeteorLake上的VPU能力
IT之家 5 月 30 日消息,英特尔在近日召开的 Computex 2023 大会上,展示了 Meteor Lake 处理器原型,重点演示了该处理器中协处理器 VPU 的一些功能。Meteor Lake 处理器不再使用单片式设计(monolithic design),而是采用分散式设计,组合通过的 chiplets 来满足不同工作任务。Meteor Lake 中提供的多功能处理单元(VPU),主要技术来自于英特尔 2016 年收购的 Movidius 公司。英特尔通过引入 VPU,可以加速处理 AI 算法和机器学习模型相关的任务。Meteor Lake 中的 VPU 主要任务包括实时处理照片和视频、过滤应用、自动模糊背景、缩放应用、替换图像等等,此外 VPU 还具备实时识别用户眼球运动和手势的能力。IT之家此前报道,这颗处理器是在两周前完成的,拥有 16 核 22 个线程、1.6 MB 的 L1 缓存、18 MB 的 L2 缓存和 24 MB 的 L3 缓存。 ...
智能设备 2023-05-30 10:51:49 -
古尔曼称苹果推出首款头显利好Meta,助其提高市场份额
IT之家 5 月 28 日消息,彭博社马克・古尔曼在最新一期 Power On 时事通讯中表示,苹果在未来会掌控高端 AR / VR 头显市场,首款头显的推出,会让 Meta 从中受益。古尔曼认为苹果在推出首款头显之后,势必会带火 AR / VR 头显市场...
智能设备 2023-05-29 10:15:41 -
英伟达AI智能体接入GPT-4,完胜AutoGPT!自主写代码独霸我的世界,无需人类插手
新智元报道编辑:Aeneas 好困【新智元导读】给游戏行业来点GPT-4式震撼?这个叫Voyager的智能体不仅可以根据游戏的反馈自主训练,而且还能自行写代码推动游戏任务。继斯坦福的25人小镇后,AI智能体又出爆款新作了。最近,英伟达首席科学家Jim Fan等人把GPT-4整进了「我的世界」(Minecraft)——提出了一个全新的AI智能体Voyager。Voyager的厉害之处在于,它不仅性能完胜AutoGPT,而且还可以在游戏中进行全场景的终身学习!比起之前的SOTA,Voyager获得的物品多出了3.3倍,旅行距离变长了2...
智能设备 2023-05-27 16:03:18 -
这个比ChatGPT情商还高的AI,我可以和它聊三天三夜
狂拿考试高分让学生瑟瑟发抖,加入联网功能叫传统搜索战战兢兢,升级工作全家桶搞得打工人又悲又喜....
智能设备 2023-05-27 16:02:52 -
GPT-4玩《我的世界》15倍速攀科技,不看画面全靠代码操作
克雷西 发自 凹非寺量子位 | 公众号 QbitAI把GPT-4放进一个虚拟世界会怎么样?比如《我的世界》。英伟达开发最新方法Voyager,在游戏中点亮科技树的速度是此前方法的15.3倍,同时获得的独特物品是此前的3...
智能设备 2023-05-27 16:02:52 -
数学论证GPT-4不是随机鹦鹉:真如此的话整个宇宙都会坍缩
克雷西 发自 凹非寺量子位 | 公众号 QbitAI对于ChatGPT的工作原理,一个常见的解释是根据统计学规律预测下一个词。但最近一位叫Jacob Bayless的工程师用数学方法得出惊人结论:若是如此,所需的信息量足以让整个宇宙都坍塌成黑洞。这一数据量是50000^8000,根据贝肯斯坦上限(Bekenstein bound)原理,如果把这些信息分配到空间当中,所需要的信息密度已经远超宇宙能承受的最大值。而这仅仅是把数据存储起来的消耗,更不必说还要进行运算了。而ChatGPT与单纯统计预测的区别,可以做这样的类比:如果天文学家通过历史观测记录推算出月食的周期,这可以算是统计学。但当他们总结出牛顿万有引力定律的时候,就已经超越了统计学。什么是“随机鹦鹉”一个流传很广的说法,所谓大语言模型实际上相当于一个“随机鹦鹉”——与我们观察其输出时的情况相反,语言模型只是将其在庞大的训练数据中观察到的语素胡乱拼接在一起,根据概率生成文本,但不清楚文字背后的任何含义,就像一个随机的鹦鹉。出自论文On The Dangers of Stochastic Parrots: Can Language Models Be Too Big这对过去的语言模型,或许确实成立。比如曾经流行的n-gram算法。比如当我们在搜索引擎中进行搜索时,出现的联想词就能用此方法实现。具体来说,下面的三行文本中,第一行纯粹是随机生成,第二行考虑了单词在英语中整体的出现概率,第三行则考虑了单词在前一个词后面出现的概率。n = 0: RECEIVE FALL SURPRISED FRIDAY INGREDIENT…n = 1: REPRESENTING AND SPEEDILY IS AN GOOD…n = 2: THE CHARACTER OF THIS POINT IS THEREFORE…不难看出,随着n值的升高,文本越来越接近人类语言。而n-gram模型根本不需要掌握其中的语义或理解其中的抽象概念,就能生成像模像样的句子。据此有人猜想,GPT-4会不会也只是一种高级的n-gram呢?Bayless提出,GPT必须学会抽象才能有如今的效果,至少GPT-4肯定如此。GPT-4不只是“随机鹦鹉”要证明这一点,可以先看下棋机器人的例子。如果有一种下棋机器人,存储了巨量棋谱数据,对于每个棋局都能推荐下一步。那它就能通过“背谱法”模仿其他任何棋手或程序的下法比如Stockfish是最先进的国际象棋程序,如果仅通过对战而不看源码,是无法确定Stockfish是否在背谱。但实际上,包含所有情形和步骤的棋谱数据量可能超过2^154。而Stockfish的程序只占用了不到50MB的空间,根本不可能存下需要的所有棋谱。所以Stockfish肯定是通过更高级的方法来实现下棋的。人类语言的复杂度远超过棋类游戏,因此GPT的数据量更是同理。仅在是上一代的GPT-3的token字典中就有超过5万token。如果对每个词都逐一建立统计信息,n-gram模型中n值将高达8000。届时,需要存储的情景数量将达到50000^8000。正如文章开头所提到,这简直是天文数字,足以让整个宇宙坍缩。因此,GPT是“随机鹦鹉”的猜测在理论上得到了一定程度的批驳。“随机鹦鹉”达不到的高度仅在理论上进行说明是不充分的,因此研究人员还进行了两个实验,意图证明大模型在学习过程中已经抽象出了算法。第一个实验关于一道经典的农夫过河问题。一个农夫有一条船,和狼、羊、菜,农夫要把这3样东西运到河到另一边,农夫每次最多只能通过这个船运一样东西,要防止狼吃羊、羊吃白菜(即不能在没有农夫在的情况下同时在同一岸边),该怎么过?研究人员将这个问题中的农夫、船、河分别替换成地球人、虫洞和银河系。狼、羊和菜则分别换成火星人、金星人和月球人。替换的目的是因为互联网上不太可能出现类似语料,可以判断大语言模型是不是真的掌握了通用方法。如果GPT不是“随机鹦鹉”,那么它至少不会犯下只有“随机鹦鹉”才会犯的错误。GPT-4针对替换后的问题给出了正确的回答,GPT-3.5则没有。但它们并没有犯研究人员预想的“鹦鹉”错误——即在回答中出现狼、船、河等已被替换掉的词语。回答中使用的句子,也无法在互联网中被检索到。这些现象都证明了现在的大语言模型的生成方式已经超越了“概率预测”。第二个实验则是数字排序。如果让GPT学习数字排序,它们究竟是只会记住给出过的数字顺序,还是真的研究出排序算法呢?其实只要从GPT的输出当中就可以看出来了。假如从1-100中随机选择10个数字,并将其顺序打乱,将一共有这么多种情形:如果再考虑数字的重复出现,又或者数字的数量发生变化,根本不可能存储如此之多的情形。因此,只要GPT能够针对未知的排序问题给出正确的回答,便可以说明它们是真的研究出了排序算法。研究人员训练了一款特斯拉前AI总监Andrej Kaparthy发明的语言模型nanoGPT,专门让它做数字排序。结果显示,随着训练步数的增加,模型给出的数字顺序越来越完美。虽然在训练步数达到16万左右时突然出现了大量错误,但也很快得到了纠正。这说明这款模型并不是仅仅根据学习的素材对未知的数字进行排序,而是已经掌握了背后的方法。这个测试只是在一台笔记本电脑、算力非常有限的GPU上进行的。更不必说GPT-4了。参考链接:https://jbconsulting...
智能设备 2023-05-27 16:02:19