从GPT到“草莓”:OpenAI的野心与安全困境
此前,一道低难度的数学题(tí)——9.11和9.9哪个更大(dà),难倒了一(yī)众海内外AI大模从GPT到“草莓”:OpenAI的野心与安全困境型,也让(ràng)外界了解(jiě)到了大模型在推理方面的局限性(xìng)。
不过,情况正在迅速发(fā)生(shēng)改变。当地时间8月27日,据The Information报道,OpenAI神(shén)秘的“草莓”(Strawberry,前身为Q*)项目(mù),计划最早于今年秋季推出。同时,用“草莓”合成数据来开发的最新大模型——“猎户座”(Orion),或于明年年(nián)初(chū)推出 。
The Information援引知(zhī)情(qíng)人士的消息称,今年夏天,在秘密会议上,OpenAI向美国国(guó)家安全官员展示了(le)“草莓(méi)”模型(xíng)。
推理能力出众
据The Information报道,参与OpenAI该项目(mù)的两名人员透露,研究人员计(jì)划在今年秋季推出(chū)代号为“草莓”的新型AI,并有可能将其作为ChatGPT的一部分。
据悉,OpenAI希望通过推出“草莓”为公司筹集更多资(zī)金,并寻找减少亏损的方法。此前,据媒体报道(dào),OpenAI今(jīn)年的亏损可(kě)能高达50亿美元。
据前述外媒报道,“草莓”目前的功能极其强大。它可以解决此前从未见过的(de)数学问题,这是当前的聊天机(jī)器人无(wú)法可(kě)靠完(wán)成的任(rèn)务。它还可以解决涉及编程(chéng)的问题,且(qiě)不局限于回答技(jì)术(shù)性问题。如(rú)果给予(yǔ)它更多时间“思考”,“草莓”模型还可以回答用户(hù)更“主观”的问题,例如产品营(yíng)销策略。
为了展示“草(cǎo)莓(méi)”在语言方面的实力,研究人员向OpenAI内部同事展示了“草莓”如何解决《纽约时报》上刊登的(de)复杂字谜游戏。
现有的人工智能并不擅长(zhǎng)解(j从GPT到“草莓”:OpenAI的野心与安全困境iě)决航空航天(tiān)和结构工程等数学密集型领域的问题,因此,解决棘手(shǒu)数学问题(tí)的AI可能(néng)是一个潜在有利可图的应用。为了提高模型的推理能力,一些初创公(gōng)司尝试(shì)将问题分解为更小的步骤,但这些办法既慢又贵。
数(shù)学推理能力的提升也有(yǒu)助于AI模型更好(hǎo)地处理对话查询,例如客(kè)户服务请求。这或许对OpenAI即将推出的AI代理服(fú)务将起(qǐ)到帮助。
不仅是(shì)OpenAI,人工(gōng)智能(néng)领域的其他主(zhǔ)要参与者(zhě)也在数学推理方面取得了长足进步。例如,谷歌(gē)DeepMind 最近(jìn)开发了AlphaProof和AlphaGeometry 2,这是(shì)两(liǎng)个用于高级数学(xué)推理的AI系(xì)统。两个系统(tǒng)协(xié)同工作,在(zài)2024年国际数学奥林匹克竞赛中获得银(yín)牌,解决了(le)六道题中的四(sì)道。
可帮助训练大模型
对OpenAI,“草莓”不仅是一个即将要向(xiàng)外界推出的商业模(mó)型,它还被赋予了更(gèng)重要的(de)使命。
一(yī)位知情人(rén)士向The Information表示,OpenAI在使用更大版本的“草莓”来生成训(xùn)练下一代旗舰(jiàn)模型(xíng)“猎户座”(Orion)的数据。该模型旨在改进其(qí)现有的旗舰(jiàn)模型GPT-4并帮助(zhù)OpenAI领先其他资金雄厚的竞争(zhēng)对手,争夺对(duì)话式AI或大型语言模型的霸主地位(wèi)。
GPT-4自2023年3月推出后,就成为(wèi)一个改变(biàn)游(yóu)戏规则的大型语(yǔ)言模型。然而,在过去18个月中,竞争对手已基本追赶上来(lái)。在某些情况下,甚至超越了OpenAI的最(zuì)新模型。
知情人士表(biǎo)示,这种由人(rén)工智能生成的数据被称(chēng)为“合成数据”。这(zhè)意味着“草莓(méi)”可(kě)以帮助OpenAI克服获取(qǔ)足够高质量数据的限制(zhì),从而(ér)利用从互(hù)联网上提取的文本或图像等现实世(shì)界数(shù)据来训练新模型。
代理初创公司Minion AI CEO、GitHub Copilot前首席架构师亚历克斯·格雷(léi)夫利表示,使用(yòng)“草莓”生(shēng)成更高质(zhì)量的训练数(shù)据可以帮助OpenAI减少其模型产生的错误数量,即所谓的幻觉。幻(huàn)觉是(shì)当前(qián)生成式AI的一个重大限(xiàn)制,这会导致AI经常生成 看似合理(lǐ)但实际上不正确(què)的数据。
“想象(xiàng)一下,一个没有幻觉的(de)模型,你问它(tā)一(yī)个逻辑难题,它第一次尝试就能答对。”格雷夫利(lì)说道。该模型之所以能够做到这一点,是(shì)因为“训练数据中(zhōng)的歧义较少,所以它猜测的次数较少”。
据The Information报道,OpenAI首席(xí)执行官阿尔特曼在(zài)5月份的一次活动中表示:“我们觉得我们拥有足够的数(shù)据来开发下一个模型。我们已经进行了各种实验,包括(kuò)生成合成数据。”据报道,他指的可能就是用“草(cǎo)莓”训练的Orion(猎 户座(zuò))。
安全隐患乌云未(wèi)散
不过,就(jiù)在OpenAI高歌(gē)猛进(jìn)的同时(shí),安全隐患的乌云从未散去(qù)。
“草莓”项目源于前OpenAI首席(xí)科学家(jiā)Ilya Sutskever的早(zǎo)期研究,OpenAI研 究人员Jakub Pachocki和Szymon Sidor在Sutskever的工作基(jī)础上开发了一(yī)种新的数学求解模型Q*。
而2023年底,有关(guān)OpenAI的Q*项目消息泄露时,一些专家将该技术定性为人工智能(AGI)的突破,但(dàn)人们对(duì)它知之甚少。这也让一些专注于人工智能安全的研(yán)究(jiū)人员感到震惊。
这件事情发生在去年OpenAI罢免阿尔特曼事件(jiàn)之(zhī)前。据知情人士爆料(liào),此(cǐ)前OpenAI员工之间就(jiù)公司(sī)是否以足够(gòu)安(ān)全的方式开发人工智能展(zhǎn)开了争论。安全也是罢免阿尔 特(tè)曼后公司内部损(sǔn)害控制的一个重要(yào)主题,当时罢免的发起人正是Sutskever。
此后,安全问题就一直困扰(rǎo)着OpenAI。而在(zài)阿尔特曼重返OpenAI后,负责OpenAI安全团队的成(chéng)员也相继离开了公司(sī)。
今年5月离职的OpenAI“超级(jí)对齐”团队领导人Jan Leike在社媒平台X上写(xiě)道:“过去几年,安全文化和流程已经(jīng)退居次 要地位,而闪亮的产(chǎn)品则成(chéng)为重中之重。”
鉴于今年早些时候几位安全部门领导人离(lí)职,以及(jí)美国(guó)参议员伊丽莎白·沃伦等美国政(zhèng)府高官(guān)对于(yú)技术(sh从GPT到“草莓”:OpenAI的野心与安全困境ù)安全问题(tí)的批评,OpenAI决定提升对政府官员的透明度。
The Information援引一(yī)位了解相关会议情况人(rén)士的消息称,今年夏天,在(zài)一(yī)些并未公开的(de)会议上,阿尔特曼的团(tuán)队向美国国家安全官员展(zhǎn)示了“草莓”模型。
报 道指(zhǐ)出,通过向政府官员展示(shì)一(yī)项尚未发布的技术,OpenAI可能为人工智能开发(fā)者树立了新(xīn)标(biāo)准,尤其是在(zài)先进人工智(zhì)能日益成(chéng)为潜在安全隐患的今天。此次(cì)演示可能是OpenAI努力向政(zhèng)策(cè)制定者提高透明度的一部分,但如果政策制定者认为该项技(jì)术对国家安全形成威胁,那 么他们可能给(gěi)公司带来麻(má)烦。
不(bù)过,一些业界人士对此并不买(mǎi)账,因为OpenAI并未向 公(gōng)众提升透明度。AI初创公司(sī)Abacus. AI的CEO Bindu Reddy表示,OpenAI将他们最好的大模型藏在背后,以此来取得领先优势。“如果(guǒ)没有开源AI,我们都会完蛋,我们可能会把文明的控制权交 给1到2家公司。”Bindu Reddy说。
未经允许不得转载:橘子百科-橘子都知道 从GPT到“草莓”:OpenAI的野心与安全困境
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了