大模型,何时迎 来大转折?
“真正(zhèng)的(de)变革是,什么时间点有 一(yī)个模型(xíng)可以把错误率降低(dī)到个位数。”
在经历了上半年(nián)密集的技(jì)术(shù)和产品发布后,下半年的(de)AI圈(quān)显得(dé)有(yǒu)些平静,不再有如Sora这样引发轰(hōng)动的产品,在GPT-4o之后,行业引领者OpenAI也(yě)迟迟没有大动(dòng)作。不少行业人士认为,技术的迭代放缓了。
在亚布(bù)力企业家夏季年会上,猎豹移(yí)动董事长傅盛(shèng)提出一个观点,AI浪潮已出现泡(pào)沫迹象,从大(dà)模型出现(xiàn)在大众(zhòng)视野以来(lái),已过去(qù)近一年的时间,但最顶级大模型的模型没有明显提(tí)升。“客观来说,谁家大模型(xíng)有什么优势,基本(běn)尚属‘一家之言’,用户用起来没有感觉到(dào)太大差别。”他认为,当前(qián)大模型同质化严重。
在与MiniMax创(chuàng)始人闫俊杰的交流(liú)中,关于瓶颈 与转(zhuǎn)折点他提到,现在所有模型错误率都是20%的量级,“真正的变革是,什(shén)么时(shí)间点(diǎn)有一个(gè)模型可以把错误率降低到个位(wèi)数,这会是(shì)一个非常(cháng)本质的变化。”未来(lái)大模型能否成功,傅盛也认为,大模(mó)型的天花板能否再上一个台(tái)阶很重要。
“至暗时刻觉得技(jì)术很重要”
这一轮的生成式AI是(shì)一场掀(xiān)起巨(jù)大浪潮的社会生产力革命,傅盛认为,这波浪潮今天已经呈现出(chū)明显的泡(pào)沫迹象。
何为“泡沫”,傅盛认为,一方(fāng)面是模型能力没有明显提升。“在一个以科技为核心的技术浪潮中,这是不太正常的。”每次写不同的东西,傅盛都会用好(hǎo)几个大模型互相比较,“有(yǒu)时候这个大模型更好用,有时那个更好用,当前大(dà)模型(xíng)的(de)同质化很严(yán)重。”
其(qí)次,说了这(zhè)么久人工智能(néng),“但(dàn)真(zhēn)正(zhèng)的Killer APP(杀手级(jí)应用)并没有(yǒu)出现,不仅在C端没有出现,B端也(yě)未能出现。很多行业大模型(xíng)都说自己有不少应用,但真正提效的并不多(duō)。”傅(fù)盛(shèng)说,想(xiǎng)要将大模型(xíng)真正变成一个明显能提效的应用,还(hái)很有难度。
泼了盆冷水的同(tóng)时,傅盛补充表示,泡(pào)沫不见得会使大模型发展崩(bēng)塌,因为有点泡沫很正常,互联网早期也曾出现泡沫。
在今年6月演讲时,金沙江创投(tóu)主管合伙人朱啸虎曾(céng)谈及GPT-5一直“跳票”时表示,“硅谷也高度怀疑GPT-5还有没(méi)有(yǒu),即使出来在核心推理能力上还有没有显著的提高(gāo),这是很不确定的东西,今年年(nián)底是一个验金石。”他判断,大模型演化速度有放缓趋势,而迭代曲线放缓以(yǐ)后,应用层的机会就会更多。
不(bù)过,在波形智能创始人姜昱辰看来,大模型技(jì)术迭代其实并没有放缓,而是保持着(zhe)2018年以来的增速,那一年基于Transformer架构的大规模语(yǔ)言模型预训练开始流行。从博士的自然语言处(chù)理研究到大模型(xíng)创业,姜昱(yù)辰 更早开始(shǐ)经历这轮大模型技术演化(huà)的进程。
“大家(jiā)之所以有这样的感觉(技(jì)术迭代放缓)是因为大众是(shì)在2022年底、2023年初(chū)第一(yī)次看到这(zhè)个技术,做了很多短时间的learning和追赶,追赶当然比较快。”姜昱辰对第一财经表示,把OpenAI做(zuò)出来的技术学一遍,不叫“技术迭代”。
虽然行业此前有一句“没(méi)有应(yīng)用的大模型一文(wén)不值”广为传播,但在很多从业者看来,大模型的技术同(tóng)样重要,因为更好的应用一定建立在更好的技(jì)术之上,技术和应用是一个相互转化的串联关系。
在MiniMax刚(gāng)刚过去的伙伴日活动上,闫俊杰在讨论中提到,“至暗时刻会觉(jué)得技术很重要。”
很多时候做技术时,并没有真正意识(shí)到技术为什么重要。闫俊杰举例表示,用(yòng)户感受到的东西可能来自于一(yī)些产品细节,或者一些品牌,技术本身是好(hǎo)多个环节在一起,尤(yóu)其在 繁荣时期,可能 分(fēn)不清(qīng)什么是主,什么是次(cì),“当在某些时间(jiān)点遇到瓶颈的时候,抛开所有的表象东西,会意识到技术才是最终提升的来源。”
“技(jì)术做(zuò)不好的时候,发现所有(yǒu)东西都是问题(tí),当技术做好(hǎo)了(le),似乎所有问题都被掩盖了,”闫俊杰表示,技术是一家科技公司最核心的要素这件事,尽管已深刻意识到,偶尔还(hái)是在继续犯错误,“这个是我在多(duō)次至暗时 刻里最有共性的一件事。”
做技术也是一件非常奢侈的(de)事,“如果看一眼我们每个月的账单还是会非常心疼的。”在采访中,说到这话时,闫俊杰 几次看向了MiniMax技术总监韩景涛,也就是“账单(dān)的制造者”。
因为(wèi)做技(jì)术可能会失败,研发投(tóu)入很大,闫(yán)俊杰此前很多时候会想要(yào)不要走点捷径,但实践经验会(huì)证明(míng),走捷径就会被“打脸”,“这(zhè)个事(shì)在我这发(fā)生可能超过十次了。”
“一个东西要实验(yàn)三次(cì)才能成功,第三次实验成功(gōng)的时候,会想前面(miàn)两次是不是可以(yǐ)不(bù)用(yòng)做,就像 吃包子吃三个会吃饱,就会想是不是前两个不用吃是一大模型,何时迎来大转折?样的(de)。”闫俊(jùn)杰表示(shì),这是(shì)做技术时(shí)一个比较 容易犯的错(cuò)误。
在各种关(guān)于模(mó)型技(jì)术细节的排行榜上,或许GPT-4o的跑分不常出现(xiàn)在(zài)第一,甚至会在中(zhōng)间(jiān),但在MiniMax基于真(zhēn)实客户的(de)测试集中,OpenAI的GPT-4o是遥遥领先的。
在大(dà)模型时代,如何判断技(jì)术的好坏,大(dà)众很迷惑,企业同样觉得很难,但这个点很(hěn)重要,因为技术的评价标准会决定模型的迭代方向,如果指标本身不 对迭代方向可能就错了(le)。
闫俊(jùn)杰提到,MiniMax目前的一个办法(fǎ)是,基于(yú)MiniMax开发平台的3万(wàn)多个开发者和付费客户,在他们的(de)场景上构建一个真实使用的测试集(jí),有些(xiē)客户对(duì)他(tā)们的场景非常看重,要求保证产品的效果,基于这些(xiē)客户真实使用的评测是较为客观的。
“这个测试集上(shàng)所(suǒ)有国(guó)产化模型相比GPT-4o都相差(chà)较多,其他排行榜基本上GPT-4o都要(yào)排到中间去了,但是在我们的排(pái)行榜(bǎng)上确实GPT-4o排在(zài)最靠前(qián)。”闫俊杰提到,国(guó)内所有模型都(dōu)与GPT-4o有本质的 差距,且越难(nán)的问(wèn)题差(chà)距越(yuè)大。按照这个评估方(fāng)式,国产(chǎn)模型的提升空间还很(hěn)大。
静待下一转折点(diǎn)
大模型的下一个转折点在哪里?众多(duō)创业者有(yǒu)不同的答案,有人认为是(shì)错误率的降低,有人觉得是个性化的模(mó)型,有人认为关键在于小算力训练出大模型,背后或许意味着架构的改进。
朱啸虎曾提(tí)到,今年的(de)大模(mó)型本身还是有很多错误,且出来的结果不可控(kòng),今天落地最困难的是,场景下怎么解决错误问题、可控问题。
现在所有的模型错误率都在20%左右,即(jí)两位数的错误率,有时惊艳,有时不靠谱,闫(yán)俊杰认为,这也是制约模型处理复杂任务的原因,“真正的变革是,什么时间点有一个模型可以将错误率降(jiàng)低到个位数。”这是能增加用户使用深度的核心手段。
复杂任务往往需(xū)要多个步骤(zhòu)“相乘(chéng)”,较高的错误率导致失败率的(de)指数 增(zēng)加。闫(yán)俊杰表示,即便是GPT-4这样的模型也无法支持非常灵(líng)活的Agent(智(zhì)能体),这并不是(shì)因为Agent框架写得不(bù)够好,产品(pǐn)做得不(bù)好,最(zuì)根本的原因是模型本身不够好。
但现在可以看到的是,每家公司(sī)有了算力,无论是OpenAI、谷歌还是Meta,都(dōu)在加码算(suàn)力。Meta CEO扎克(kè)伯(bó)格(gé)曾在社交(jiāo)媒体上表(biǎo)示,要建立一个大规模(mó)的计算基础设施,到2024年底,这一设施将 包括(kuò)35万张英伟达H100显卡,业界预估这或许将耗费近百亿美元。
算法也在进步,OpenAI在2023年只能做出来GPT-4,但2024年能做GPT-4o,虽然性(xìng)能(néng)差不多,速度快了近10倍。
“计算(suàn)量多了不止10倍,算(suàn)法也快了(le)10倍时,没有道理说训练不出(chū)来一个更好的模型。”闫俊杰提到,“如果Scaling law(尺(chǐ)度定律)是对的,未来这个模型一(yī)定会出现,标志就是个位数的错误率。”
在傅盛看来,降低错(cuò)误率同样(yàng)重要。“今天的大模型有20%-30%的知(zhī)识幻(huàn)觉,而且‘它不知道自己不(bù)知道’,这(zhè)是在企业应用上(shàng)非(fēi)常重(zhòng)要的一大卡点。”想要(yào)真正落地(dì)一个应用,得用大量工(gōng)程化的手段去解决以前(qián)通用人工智能(néng)认为它能干的活(huó),这 中间是有(yǒu)差距(jù)的(de)。
问及大模型技术的(de)下一个转(zhuǎn)折点,姜昱辰(chén)给了一个不一样的(de)答(dá)案,她(tā)认为是“个性化(huà)”的(de)技术(shù)。
“ToB的创业者会觉得错(cuò)误率降低很重要,因为企业(yè)级、工业级场景中要的(de)是极高准(zhǔn)确率,而在消费场(chǎng)景中(zhōng),要的是‘懂你’的个人助手(shǒu)。因此,对(duì)ToC创业(yè)者来说,个性(xìng)化技(jì)术更(gèng)重要。”对于不同的答案,姜昱辰(chén)解释,ToB和ToC不同的场景下会有不同的感知。
从难度(dù)上来说,大模型(xíng)幻觉(jué)是(shì)概率模型固有的,不容易解决,但个(gè)性化大模型确实是技术(shù)层面可行的。姜昱辰提到,波形智能目前在做的是这个方向(xiàng),主要的难(nán)点是算法,中间需要知(zhī)道(dào)的是,这样的个性化生成(chéng)式模(mó)型需要(yào)什(shén)么用户信息,如何用于(yú)模型自(zì)进化。
深思考创始人杨(yáng)志明则认为(wèi),下一个转折点是,如何利用小算(suàn)力训练出大模型、做好大模型的推理,在这背(bèi)后,当(dāng)下主(zhǔ)流的(de)Transformer架构需要堆积算力(lì),“性价比太低(dī)”。架(jià)构的改进或许是重要的方向。
值得期(qī)待的是,近日有消息称(chēng),OpenAI将在今年秋天推出代(dài)号为“草莓”(Strawberry)的新模型。作为核心技术突破(pò),草(cǎo)莓可能集成在ChatGPT内 ,帮(bāng)助(zhù)解决(jué)当前AI聊天(tiān)机器人难以完成的复杂任务,如数学和编程(chéng)问题(tí)。此外,草莓更 会“思考”,在解决强主观性问题上更(gèng)擅长。
“草莓”是前菜,消息人士(shì)透露,OpenAI正在开发下一代大型语(yǔ)言(yán)模型Orion(猎(liè)户座),草莓将为其生(shēng)成高质量训练数据,以帮助减少大模型(xíng)幻觉问题。能否突(tū)破瓶颈,带领行业进(jìn)入下一转折(zhé)点,最大的可(kě)能性还在OpenAI。
责任编辑:刘万里 SF014
“真正的变革是(shì),什(shén)么时间点有一个模型可以把错误率降低到个(gè)位数。”
在经历了上(shàng)半年密集的技术和(hé)产(chǎn)品发布后(hòu),下半年的AI圈显得有些平静,不再有如Sora这样引(yǐn)发轰 动(dòng)的产品,在GPT-4o之后,行业引领者OpenAI也迟迟没有大动(dòng)作。不少行(xíng)业人(rén)士认为(wèi),技术(shù)的迭代放缓了。
在亚布力企业家夏季(jì)年会上,猎豹(bào)移动(dòng)董事长傅盛提出一个 观点,AI浪潮已出现泡沫迹象(xiàng),从大模型出现在(zài)大众视野以来,已过去近一年的时间,但最(zuì)顶级大模(mó)型的(de)模型(xíng)没(méi)有明显提升。“客(kè)观来说,谁家大模(mó)型有什么优势(shì),基本(běn)尚 属‘一(yī)家之言’,用户用起来没有感 觉到太大差别。”他认(rèn)为,当(dāng)前(qián)大模型同质化严重。
在与MiniMax创始人闫俊杰的交流中,关于瓶颈与转折点他提到,现在所有模型错误率都是20%的量级,“真(zhēn)正的变革是(shì),什么时间点 有一个模型(xíng)可以把(bǎ)错误(wù)率降(jiàng)低到个位数,这会是一个非(fēi)常本质的变化。”未来大模型能否成功,傅(fù)盛也认为,大模型的天(tiān)花板能否再上一个台阶很重要。
“至暗时刻觉得技术很重要”
这一轮的生成式AI是(shì)一 场掀起巨大浪潮的社会生产力革命,傅盛认为,这波浪潮今(jīn)天已经(jīng)呈现出明显的(de)泡沫迹象。
何为“泡沫”,傅盛认为,一方面是模型能(néng)力没有明显提升。“在一个以科(kē)技为核心的技术浪潮中,这是不太正常的。”每(měi)次写不同的东西,傅盛都会(huì)用好几个大模型互相比(bǐ)较(jiào),“有时候(hòu)这个大模(mó)型更好用,有时(shí)那个更好(hǎo)用(yòng),当前大模(mó)型的同质化很(hěn)严重。”
其次,说了(le)这么久人工智能,“但真正的Killer APP(杀手级应用)并没有出现,不仅在C端没有(yǒu)出现,B端也(yě)未能出现。很多行业大模型都说自己有不少应用,但真正提(tí)效的并不多。”傅盛说(shuō),想要将大模型真正变(biàn)成一个(gè)明显能提效的(de)应用,还很有难度。
泼(pō)了盆冷水的(de)同时,傅盛补充(chōng)表示,泡沫不见得(dé)会使(shǐ)大模型发展崩塌,因为有点泡(pào)沫很正常,互联网早期也曾出现泡沫。
在今年6月演讲时,金沙(shā)江创投主管合伙人朱啸(xiào)虎曾谈及GPT-5一直“跳票”时表示,“硅谷也高度怀疑(yí)GPT-5还有没有(yǒu),即使出来在核心推理能力上还有没(méi)有显著的提高,这(zhè)是很不确定的东西,今年年底是一(yī)个验金石。”他判断,大(dà)模(mó)型演化(huà)速度有(yǒu)放缓趋势,而迭代曲线放缓以后,应用层的机会就会更多。
不过,在波形(xíng)智能创始人姜昱(yù)辰看来,大模型(xíng)技术迭代其实并没有放缓,而是保持着2018年以来(lái)的增速,那一年基于Transformer架构(gòu)的大规模语言模 型预训练开始流行。从(cóng)博士的自然语言(yán)处(chù)理研究到大模型创业,姜昱辰更早开始经(jīng)历这轮大模型技术演化的进(jìn)程。
“大家之所以有这样的感觉(技术迭代放缓)是因为大众(zhòng)是在(zài)2022年底、2023年初第一次看(kàn)到这个技术,做了很多短时间的learning和追(zhuī)赶,追赶(gǎn)当然比较快。”姜昱辰对第一财经表示,把OpenAI做出来的技术学一遍,不叫“技术迭代(dài)”。
虽然行业此前有一句(jù)“没有应用的大模(mó)型一(yī)文不值”广为传播,但在很(hěn)多从业者看来(lái),大模型的技术同样重要,因为更好的应用一(yī)定建立在更好的技(jì)术(shù)之上,技术和应用(yòng)是一个相互(hù)转化的串联(lián)关系。
在MiniMax刚刚过去的(de)伙伴日活动上,闫俊杰在讨论中提到,“至暗时刻会(huì)觉得技术很重要。”
很多时候做技术时,并没有真正意(yì)识(shí)到技术为(wèi)什么重要。闫(yán)俊(jùn)杰(jié)举例表示(shì),用户感受到的东(dōng)西可(kě)能来自于一些产品(pǐn)细节,或者一些品牌,技术本身是好多个环节在一起,尤其在繁荣时期,可能(néng)分不清(qīng)什么是主,什么(me)是次,“当在某(mǒu)些时间点遇到(dào)瓶颈的时候,抛开所(suǒ)有的表象东西,会意识到技术才是最终提升的来源。”
“技术做不好的时候,发(fā)现所有(yǒu)东西都是 问题,当(dāng)技术做好了(le),似乎所有问题都被掩盖了,”闫俊(jùn)杰表(biǎo)示(shì),技术是一家 科技(jì)公司最核心的要素这件事,尽管已深刻意识到,偶尔还是在继续犯错误,“这(zhè)个是我(wǒ)在多次至暗时刻里最(zuì)有共性的一件事。”
做技术也是(shì)一件非常(cháng)奢侈(chǐ)的事,“如(rú)果(guǒ)看一眼我们每个月的账单还是会(huì)非常心疼的 。”在采访中,说到这话时,闫俊杰几(jǐ)次看向了(le)MiniMax技术总(zǒng)监韩景涛,也就(jiù)是(shì)“账单的制造者”。
因(yīn)为做技(jì)术可能会失败,研发投(tóu)入很大,闫(yán)俊杰此(cǐ)前很多时候会想要不(bù)要走点捷径,但实践经(jīng)验会证明,走捷径就会被(bèi)“打脸(liǎn)”,“这个(gè)事在我这发生可能超过十次了(le)。”
“一个东西(xī)要实验三次才 能成功,第(dì)三(sān)次实验成功的(de)时候,会想前面两次(cì)是不(bù)是可(kě)以不用做,就像吃包子(zi)吃三个会吃饱,就会想是(shì)不(bù)是前两个不用吃(chī)是一样的。”闫俊杰表示,这是做技术时 一个比(bǐ)较容易犯的错误。
在各种关于模型技术细(xì)节的排行(xíng)榜(bǎng)上,或许GPT-4o的跑分不(bù)常出现在第 一,甚至会在中间,但在MiniMax基于真实客户的测试集中,OpenAI的GPT-4o是遥遥领先的。
在大模型时(shí)代,如何判断技术的好坏,大众很迷惑,企业同样(yàng)觉得很难,但这个点(diǎn)很重要,因(yīn)为技 术的评价标准会决定模型(xíng)的迭代方向,如(rú)果(guǒ)指标本(běn)身不对(duì)迭(dié)代方向可(kě)能就错了。
闫俊杰提到,MiniMax目前的一个(gè)办(bàn)法是,基于(yú)MiniMax开发平台的(de)3万多个开发者和付费客(kè)户,在(zài)他们的场景上(shàng)构建一个真实使用的测试集(jí),有些(xiē)客(kè)户对他们的场景非常看重,要求保证产(chǎn)品的效果,基于这些客(kè)户(hù)真实使(shǐ)用(yòng)的评测是较为客观的(de)。
“这个测试(shì)集上所有国产化模型相比GPT-4o都相差较(jiào)多(duō),其他排行榜基(jī)本上GPT-4o都要排(pái)到中间去了,但是在我们的排行榜上确(què)实(shí)GPT-4o排(pái)在最(zuì)靠前。”闫(yán)俊杰(jié)提到(dào),国内所有(yǒu)模型(xíng)都与GPT-4o有本质的差距(jù),且越难的(de)问题差距越大。按照这个评估方式,国产模型的提升空间还很大。
静待下一转折点
大模型的下一个转折点在哪里?众多(duō)创业(yè)者有不同的答案,有(yǒu)人 认为是错误(wù)率的降(jiàng)低,有人觉得是个性化的模型,有人认为关键在于小算力训练(liàn)出大模型(xíng),背后或许意(yì)味着架 构的改进。
朱啸(xiào)虎(hǔ)曾提(tí)到,今年的大模型本身还是(shì)有很(hěn)多错误,且出来的结果不可控,今天(tiān)落地最困难的是(shì),场(chǎng)景下怎么解决错误问题、可(kě)控问(wèn)题 。
现在所有的模(mó)型错误率都在20%左右,即两位数的错误率,有时惊艳,有时不靠谱,闫俊杰认为(wèi),这也是制约模型处理(lǐ)复杂任务的原(yuán)因(yīn),“真正的变革是,什么时间点有一个模型可以将错误率降低到个(gè)位数。”这是(shì)能(néng)增加(jiā)用(yòn大模型,何时迎来大转折?g)户使(shǐ)用(yòng)深度的核(hé)心手段。
复杂(zá)任务往往需要(yào)多个(gè)步骤“相乘”,较高的错误率导致(zhì)失(shī)败(bài)率的指数增加。闫俊杰表示,即便(biàn)是GPT-4这样(yàng)的模型也无法支持非常灵活的Agent(智能体),这并不是因为Agent框架写得不够好,产(chǎn)品做得不好,最根(gēn)本的原因是模型本身不够好。
但现在可以看到的(de)是,每家公司有了算力,无论是OpenAI、谷歌还是Meta,都在加码算力。Meta CEO扎克伯(bó)格曾在社交媒体上表示(shì),要建立一个大规模(mó)的计算基础设施,到2024年底,这(zhè)一设施将包括35万张英伟达H100显卡,业界预(yù)估这或许将耗费近百亿美元。
算法也(yě)在进步,OpenAI在2023年只能做出来GPT-4,但2024年能做GPT-4o,虽然性能差不多,速度快了近10倍。
“计算量多了不止10倍,算法(fǎ)也快了10倍时,没有道理说(shuō)训练(liàn)不出来一个更好的模型(xíng)。”闫俊杰提到,“如(rú)果Scaling law(尺度定律)是对的,未来这个模型一(yī)定会出现,标志就是个位数的错误率。”
在傅盛看来,降低(dī)错误率同样重(zhòng)要。“今天的大模型有20%-30%的知识幻(huàn)觉,而且‘它不知道自(zì)己不知道’,这是在企业应用上非(fēi)常重要(yào)的一(yī)大卡点。”想要真正落地一个应用,得用大量工程化的(de)手段去解决以前通用人工智能认为它能干的活,这中间是有差距的。
问及大模型技术(shù)的下一个转折点,姜昱辰给了(le)一(yī)个不一样的答(dá)案,她认为是“个性(xìng)化”的技术。
“ToB的(de)创业者会觉得错误率降低(dī)很重要,因为企业级、工(gōng)业级(jí)场景中要(yào)的是极高准确率,而在消费场景中,要的(de)是‘懂你’的个人助手。因此,对ToC创业者(zhě)来说,个性化技术更重要。”对于不同(tóng)的答案,姜昱 辰 解释,ToB和ToC不(bù)同的(de)场景下(xià)会有(yǒu)不同的感知。
从难(nán)度上来说,大模型幻(huàn)觉是概率模型固有的,不(bù)容易解决,但个性化大模型(xíng)确实是技术层面可行的(de)。姜 昱辰提(tí)到,波形智能目前在做(zuò)的是这个方向,主要的难点是(shì)算法,中间需要知(zhī)道的是(shì),这样的个性化生(shēng)成式模型(xíng)需要什么用户信 息,如(rú)何用于模型自进化。
深思考创始人杨志(zhì)明则认为,下一个转折点是,如何利用小算力训(xùn)练出大(dà)模型、做好大模型的推理,在(zài)这背后,当下(xià)主流的Transformer架(jià)构需要堆积算力,“性价比太低”。架构的改进或许是重要的方向。
值(zhí)得期待的是(shì),近日有消息称(chēng),OpenAI将在(zài)今年秋天推(tuī)出代号为“草莓”(Strawberry)的新模型。作(zuò)为核心技术突破,草(cǎo)莓可(kě)能集成在ChatGPT内,帮(bāng)助解决当前AI聊天机器人(rén)难(nán)以完成的(de)复杂任务,如数学和编程问题。此外,草莓更会“思考”,在解决(jué)强(qiáng)主观性问题上更擅(shàn)长。
“草莓”是前菜,消息人士透露(lù),OpenAI正(zhèng)在开(kāi)发下一代大型(xíng)语言模型(xíng)Orion(猎户座),草莓将为其生成高质(zhì)量(liàng)训(xùn)练数据,以帮助减少大模型幻(huàn)觉问题。能否突破瓶颈,带领行业进入下一转折点,最大的可(kě)能性还在OpenAI。
未经允许不得转载:橘子百科-橘子都知道 大模型,何时迎来大转折?
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了