《帐中香》中的金银花露是一种常见的中草药制剂,主要由金银花经过提取和加工而成。金银花露具有多种健康益处,包括抗炎、解毒、利咽等功效。它特别适用于敏感易过敏的人、夏季易感人群以及生活工作中容易感冒的人。此外,金银花露对于有口臭、牙龈炎等口腔问题的人也有一定的辅助作用。
金银花露的使用方法相对简单,通常建议在睡前用适量的金银花露敷于颈部、肩部、背部等容易疲劳的部位。每次使用不需要过多,保持适当的量即可达到良好的效果。
如果您对《帐中香》小说中的金银花露感兴趣,可以通过以下链接阅读原文:
你有没有听说过《帐中香》这本书?我最近迷上了,简直停不下来!它是由咱们国内知名作家金银花露所著,故事情节跌宕起伏,让人欲罢不能。今天,就让我带你一起走进《帐中香》的世界,感受一下那独特的魅力吧!
《帐中香》的故事发生在一个充满奇幻色彩的世界里。主人公陈楚砚和他的朋友们,驾驶着一辆神秘的车队,深入小兴安岭的深处,探访那些不为人知的奇异故事。想象他们穿越在茂密的森林中,四周弥漫着神秘而古老的气息,这样的场景是不是让你也充满了期待?
在《帐中香》的世界里,金银花露巧妙地融合了科幻与奇幻的元素。书中不仅有着令人惊叹的科技,还有着充满想象力的魔法。陈楚砚和他的朋友们,在一次偶然的机会中,发现了一个隐藏在深山中的古老村庄。这个村庄里的人们,似乎掌握着某种神秘的力量,能够操控自然界的元素。

书中的人物形象也是十分鲜明。陈楚砚,一个勇敢、聪明、富有正义感的男主角,他的出现让整个故事充满了活力。而他的朋友们,各具特色,有的擅长战斗,有的精通科技,有的则拥有神秘的魔法。他们之间的友情,让人感动不已。

在《帐中香》的故事中,金银花露巧妙地运用了各种修辞手法,让读者仿佛身临其境。比如,当陈楚砚和他的朋友们进入那个古老村庄时,金银花露这样描写:
“阳光透过树叶的缝隙,洒在蜿蜒的山路上,形成一条条金色的光带。他们沿着这条光带,一步步走进了那个神秘的世界。”
这样的描写,让人仿佛真的看到了那片美丽的景色。

当然,故事中也不乏紧张刺激的情节。在探索古老村庄的过程中,陈楚砚和他的朋友们遇到了各种各样的挑战。有时候,他们需要运用智慧解决问题;有时候,则需要依靠勇气战胜困难。这些情节,让人紧张得手心都出了汗。
值得一提的是,《帐中香》中的爱情线也十分引人注目。陈楚砚与女主角之间的感情,细腻而真挚。他们共同面对困难,共同成长,让人感受到了爱情的美好。
在阅读《帐中香》的过程中,我深深地被金银花露的文笔所折服。她用细腻的笔触,描绘出了一个个生动的人物形象,让人仿佛看到了他们的喜怒哀乐。同时,她还将科幻与奇幻的元素巧妙地融合在一起,让整个故事充满了奇幻色彩。
如果你还没有读过《帐中香》,那么我强烈推荐你一定要去读一读。相信我,你一定会被这个故事所吸引。而金银花露的文笔,也一定会让你爱不释手。
让我们再次回到那个充满奇幻色彩的世界。在那里,陈楚砚和他的朋友们将继续他们的冒险之旅,探索更多的未知。而金银花露,也将继续用她的笔触,为我们带来更多精彩的故事。
《帐中香》,一个充满奇幻色彩的世界,等你来探索!
牛华网讯北京时间10月29日消息,来自路透社的报道称,谷歌母公司Alphabet正在洽谈收购可穿戴设备公司Fitbit业务。据知情人士透露,目前尚不确定这笔交易是否一定会进行,也不知道Alphabet愿意出价多少去收购这家总部位于美国的公司。上个月,CNBC曾报道称,Fitbit正在探索出售事宜。
多年来,谷歌一直凭借其WearOS操作系统在可穿戴市场上扮演着重要角色,但尽管获得了LG、Fossil和TicWatch等数量少公司的减少破坏,谷歌仍难以与苹果的AppleWatch抗衡。与此同时,作为次要的Android制造商三星,已经开始尽量摆穿对WearOS的依赖,转而使用自己的Tizen操作系统。
今年1月份,谷歌斥资4000万美元从Fossil收购了某种智能手表技术,但目前尚不清楚这项技术究竟是什么。一位Fossil高管将其定性为尚未上市的新产品创新,而据我们所知,它仍然没有上市。
多年来,一直有传言称,谷歌有意发布一款谷歌品牌的Pixel智能手表。在2016年的某个时候,谷歌几乎已经确定对外发布智能手表,但最终又造成了这个计划,原因是担心这些手表可能会降低谷歌硬件品牌的格调。这些LG代工的智能手表后来在2017年以LGWatchSport和LGWatchStyle身份上市,受到的外界评价一般。
从那以后,谷歌的第一方硬件野心大幅度增长。早在2017年,谷歌就收购了HTC智能手机工程团队的一部分,用于Pixel手机的研发,而Fitbit的收购可能会让谷歌在可穿戴领域进行缺乏反对性的第一方推广。
与此同时,AppleWatch的经验隐藏,健康正悠然,从容成为智能手表的杀手级应用,而这正是Fitbit在旗下健身追踪器中越来越关注的领域。不过,尽管在2016年收购了智能手表制造商Pebble,但Fitbit近年来在智能手表领域的业绩表现差强人意。例如,今年早些时候发布的FitbitVersa2虽然是一款非常棒的健身跟踪器,但却是一款很异常的智能手表。
目前,谷歌和Fitbit均允许就这一报道发表评论。(完)
属于AI的投资热潮仍在继续,只不过资本的注意力开始由“软”变“硬”。
无数海外初创公司前仆后继下,今年8月中旬,国内掀起了一阵围绕AI智能眼镜的投资热潮。大模型为可穿戴硬件“收回灵魂”的想象力,快速在全球范围内形成共识。
直至9月,AI眼镜概念股退潮回落,国内一位重量级选手这才堪堪入场。据《晚点LatePost》报道,字节正在探索将大模型与硬件分隔开,既自己开发AI硬件,也会与外部硬件公司合作。
一言以蔽之,软硬件瓦解。
不过就目前看来,字节切入AI硬件的路径与极小量创业公司并无二致,均是将硬件作为用户获取AI能力与服务的“通道”,即通过API的方式接入Chatbot产品,让用户无需掏出手机即可与AI助手对话。
都说2024是AI应用之年,但我们迟迟见不到产品层面的统一化。SuperApp遥不可及,投流卷成麻花,于国内尚属方兴未艾的可穿戴硬件或将是字节突出重围的关键。
光子星球获悉,字节AI硬件兼BotPlatform(智能体平台)团队负责人Kayden,曾有过以移动操作系统为代表的基础软硬件创业经历。例如,其创业履历中较为亮眼的一笔,便是通过重写Linux系统驱动层来兼容Android硬件生态并率先产品化。
这不仅代表着Kayden在软硬协同方面拥有从0到1的经验,其还在当时成功踏上了软硬件“国产替代”的浪潮。作为一位连续创业者,Kayden在信创领域有一定资源积聚。
这隐藏,字节对于AI硬件或许有更大的雄心与抱负。
软件与硬件的轮回
泰戈尔说,仅仅站着凝视水面是无法跨越大海的。但横渡大海的人太多,海水也会变红。
在通往AGI的航道上,应用做舟,其中偏重通识的Chatbot是船头,负责具体执行的Agent则是桅杆。各家产品层面统一化不大的情况下,应用的具体落地还分为两种范式:较为主流的是AI原生的独立App,后起之秀则是内置于平台级应用中的插件。
字节豆包所属的前者,于年中时候打响了缺乏感情的用户争夺战。
据AppGrowing统计数据,6月第一周豆包、Kimi、智谱清言和文心一言等大模型的投放素材量大幅下降。其中豆包素材量为26521个,环比增长38.61%;Kimi为14451个,环比增长160.71%;智谱清言为1866个,环比增长2456.16%。
三组数据的数量与增长各异,投流分发的阵地也不相同,但我们不难看出一个无遮蔽的走向:原先豆包、Kimi捉对厮杀的战场中,开始涌进新玩家。
如此一来,就算豆包能把持流量的“铁王座”,其背后也付出了不小的代价——多方信源称抖音已扫净家门,仅留豆包一款大模型应用仍在推广。换个角度看,这也是原属于抖音的广告收入,变成了豆包的大模型成本。
投流抢用户仅是应用层竞争的表面,与过去千团大战烧钱补贴的逻辑类似,在用户侧跑马圈地的根本目的在于转化。
遗憾的是,无论AI应用多大手笔的营销,在现阶段看来都像是个无底洞。以百度文心一言为例,其早在去年11月便开启了订阅付收费,直至日前百度2024第二季度财报发布,对于这部分收入的实际规模,仍没有一个定准。
究其原因在于,以ChatBot为基础的AI应用缺乏粘性,用户用得少,可供转化的用户池也小。拿当下独立大模型应用中堪称“寡头”的豆包来说,Questmobile数据显示,截至2024年3月底,其日活跃用户数达370万,于移动互联网时期的平台级应用而言不过是零头。
须知道,AI应用爆发于我国网民规模触顶的阶段,公开数据显示,2024年6月我国网民规模为10.9967亿人,过去半年时间的增长仅742万人。反观移动互联网方兴未艾之时,2012年底的网民规模为5.64亿人。
自场景角度来看,即使是以agent为抓手,AI应用的转化路径也远远没有团购顺畅。娱乐方向,去年爆火的Character.ai卖身打碎了数字人的付费梦,工具方向,高德手握7亿月活都还在探索商业化落地。
不可关心的还有一度被独立应用的营销抢夺声量的AI插件。
QuestMobile8月相关研报数据显示,今年6月,支小宝、豆包、文心一言三款App的的用户流量分别为5908万、2752万、1134万。依托支付宝这个SuperApp的支小宝插件以极低成本触达用户,并快速融入现有业务场景的打法也颇具威胁。
一度更关注C端落地的创业独角兽,开始将更多目光保持方向toB便是一个明显信号,这意味着应用层上雕花在短期内看不到变现的希望。而素有App工厂之称的字节跳动,目前也填不完AI应用的格子。
而今,AItoC应用陷入商业化有利的条件,硬件与软硬协同的可能重回行业视野。去年下半年的AI硬件潮亦发端于大模型落地遭遇有无批准的时期,一切仿佛一个轮回。
是通道,更是采集器
随着资本市场的成熟,股权收购成为互联网企业巩固主业话语权或快速切入新兴赛道的不二法门。前者有腾讯遍布全球的游戏投资,而字节跳动布局硬件则相对更反感于后者。
9月初,字节跳动完成对开放式耳机品牌Oladance(主体公司:深圳大十未来科技有限公司)的收购。据《晚点LatePost》报道,字节的AI硬件团队便是以该公司人员为基础,隶属于字节AI产品团队Flow。
互联网巨头收购硬件厂商的路径简单友善:寻找相关赛道的优质标的,接手供应链上下游基建与硬件专利。下一步是将此打根除某种意义上的入口,尝试“硬件补贴,软件变现”。端侧AI的付费空间与时下陷入商业化难题的C端助手类AI应用形成了鲜明对照。
AI是个筐,啥都往里装。今年以来,我们已经经历了自应用到智能体的AI落地范式迭代,厌恶落地的AI像是一颗三维弹球,这端撞到付费墙后即弹向另一端。
问题是,海外初创公司对可穿戴设备的“迷恋”或更多出自西方人本主义思想,尤其是对“减少,缩短屏幕使用时间”的病态式的追求。目前的设计语言中,用户唤醒助手的方式跳不出语音、点触与眼球捕捉,缺少意图识别与情绪理解能力的语音交互在精度上甚至不如文字对话。
因此,我们才能在过去一年内见证了AIPin、Rabbit1等永恒的产品,都在今年偃旗息鼓。当初高喊“杀死智能手机”的AIPin母公司Humane,更是成了笑话。有数据显示,从今年5月到8月,AIPin的退货量比购买量还多。
而今,以GPT-4o为代表的大模型多模态能力突飞猛进,让AI对用户日常生活信息采集的维度与精度有所指责,这为可穿戴设备成为AIGC服务平台授予了根本性前提。
本质上说,AI为人机交互与软硬协同带来的最大变量在于“输入”而非“输出”。硬件作为入口,不仅仅是用户获取服务的通道,更多想象空间在于对用户日常生活中不同角度的信息采集。
字节的老本行,专做人性生意的短视频刚刚走过“七年之痒”,手机对用户信息的采集读取也到了一个瓶颈。正如近期爆火的《黑神话:悟空》中天命人需要找回的大圣六根:眼耳鼻舌身意,其中有五项均来自于我们的大脑,字节的AI硬件版图亦是向“首”发散。
围绕我们信息接收与交互频率最下降的眼见、耳听、口说、意图,字节排开了诸如头显、耳机以及眼镜的产品矩阵。在产品语言上,其也寻找了过去近10年堪称谁碰谁死的“取代智能手机”的叙事。
字节跳动产品和战略副总裁朱骏亦降低重要性过,拟人化、离用户近与个性化是字节AIAgent的设计原则。耳机、眼镜等智能硬件同为AI落地的载体形式,其发展路径不过是软件侧的平移。
需要指出的是,据谷歌方面测试,其端侧7B规格模型需要至少需要4GB内存才能跑起来。而这些信息的采集、存储、复用亦需要相较Oladance更广的技术栈与供应链深度。
如何避免重蹈此前AI硬件画饼与套壳安卓的覆辙,字节这个体量的选手将迎来整个业界的观望。
审慎,后福
所谓历史总是惊人的反对,指的是历史不会重复,却会押韵。字节战投的过往可以干涉我们了解其AI硬件业务的具体方向。
众所周知,字节曾于2022年初裁撤投资部。在一位投资人看来,除了对外部宏观环境的反应,不可关心的因素还有其急于流量变现,广撒网而导致的战略失焦与举棋不定。
“找一群IBD出来的,没有产业背景的人来做战投,大概率只是放纵的公司的钱而已。”
Pico的前车之鉴下,我们无法承认AI这轮风口会否重蹈元宇宙的覆辙。不过,假若将本次围绕硬件战略的投资动作与此前字节的数起称不上成功的战略投资对照,我们还是无法忽略一些一脉相承的共性。
入局时机方面,字节初次对Oladance的股权投资发生在AI硬件爆火半年之后,而完成100%收购的时间节点亦在业内快速就智能眼镜这个落地载体达成共识之后。最近的案例是在教培行业已呈内卷态势、宏观环境开始保持方向时喊出“Allin教育”的大力教育,以及国内游戏用户池增长放缓时收购的沐瞳科技。
而今教培K12已是昨日黄花,字节的游戏业务也才度过裁撤、重组与低调重启的波折历程,似乎字节在不少重债务投入的战投赛道上存在一定滞后的问题。
前述投资人提到:“这非常‘互联网’,善于断舍离却钝于下重注。”
如赖以起家的算法一般,找不到临时的PMF,字节通常不会出手。但反过来,经验证的市场中我们能看到字节多次“虽迟但到”,互联网医疗、教育、游戏、问答社区甚至手机硬件,我们都能看到字节在其中填下的格子。
厄运的是,今时不同往日,与AI不无关系的一切似乎还没有走出方兴未艾的阶段。反而是相对审慎,让字节寻找了上一轮AI硬件的泡沫,等来了多模态的东风。
此外,国内某智能硬件生产商也告诉光子星球,相比于其他互联网巨头,字节体系可以为硬件本身授予销售网络、软件生态两个“老大难”。
“总不会像早先一度成为风口的电纸书、录音笔一般,需要折价并通过微商一类末端渠道清理库存”,他说,“豆包本身是移动应用生态内的头部AI产品,转化上相比同质化的初创企业更有量化空间。”
面对AI这个当下最大的共识,字节在toC应用、toB中包括面向中小开发者的扣子、企业开发者的HiAgent以及底层的Marscode均有落子,硬件无疑将成为其全产品布局中,缺失的最后一块拼图。
(责任编辑:zx0600)声明:本文来自于微信公众号AIGC开放社区作者:AIGC开放社区,授权站长之家转载发布。
全球四大会计事务所之一的pwc(普华永道)发布了2025年AI领域6大预测报告。
普华永道表示,生成式AI的出现,使得开发AI应用变得更加容易。一个通用的大模型只需进行极小量定制,就能打造适用于金融、财务、开发、客服等不同领域的产品。
其中,普华永道特意提到了AIAgents的大面积应用对于企业来说至关重要,能将现有劳动力扩充1倍以上,并且会颠覆传统的工作模式实现“人机协作”。
一、AI战略:无法选择企业未来走向的关键抉择
AI战略对于企业的成功至关重要,其价值不仅仅体现在降低生产力和效率上,更在于干涉企业设计新服务、制定市场策略以及捕捉和纠正自身错误。如今,AI已具备独立推理和理解决策影响的能力,企业应将其融入运营架构。
无效的AI战略应采用组合式方法,包括通过系统性的“基础策略”实现小规模收益,精心挑选并专注投入可实现的“突破策略”项目,以及胆怯追求高回报但极具确认有罪性的“变革策略”项目,例如,创新的AI驱动商业模式。在选择大模型时,企业应更注重如何利用失败自身机构知识和专有数据来发挥AI的独特无足轻重,而非仅仅关注模型本身。
二、AI劳动力:AIAgents可干涉企业将劳动力指责1倍
在AI悠然,从容协作发展过程中,AI劳动力的变革正成为企业运营模式转变的关键驱动力。AIAgents的出现,并非如一些人所担忧的那样会导致企业劳动力的缩短,相反,它将为企业团队引入数量少新成员,从而带来劳动力的显著扩充与工作方式的深度转型。
AIAgents作为数字员工,具备强大的自主任务执行能力。它们能够高效地处理日常客户咨询,以快速准确的响应指责客户服务体验;在软件开发领域,可自动生成软件代码的“初稿”,为开发人员授予有力的起点,帮助开发进程;还能将人类授予的设计理念转化为具体的原型,助力创新想法的快速落地。
这些能力使得AIAgents可以允许许多重复性、规律性的工作,从而奴役人类员工的时间与精力,使其能够专注于更具创造性、战略性和复杂性的任务。
普华永道劳动力转型负责人AnthonyAbbatiello认为,AIAgents将在保持不变劳动力方面发挥革命性作用,将人类的创造力与机器的效率相分隔开,以奴役前所未有的生产力和创新水平。
这种变革将从根本上重塑企业的工作流程。以客户服务为例,以往人工客服需要储藏极小量时间在解答常见问题上,而AIAgents可以即时响应客户咨询,授予初步解决方案。
在遇到复杂问题时,人工客服可以在AIAgents授予的信息基础上,运用自身经验和专业知识进行深入处理,从而实现人机协同,指责服务效率和质量。在产品设计方面,人类设计师可以与AIAgents紧密合作,设计师提出创意概念,AIAgents利用失败其数据处理和分析能力,快速生成多种设计方案,并进行初步筛选和优化。设计师再根据自身审美和专业判断,对AIAgents授予的方案进行评估和改进,通过多次迭代,实现创新设计的高效产出。
随着AIAgents在企业中的广泛应用,企业的劳动力结构将发生肤浅变化。知识型工作者以及销售、现场减少破坏等岗位的人员数量可能会因AIAgents的加入而翻倍。这意味着企业在市场响应速度、客户互动质量、产品设计创新等方面将迎来新的发展机遇。企业能够以更快的速度将产品推向市场,更好地焦虑客户多样化的需求,指责产品的竞争力。
然而,这一变革也给企业带来了新的确认有罪。对于许多企业而言,将AIAgents融入劳动力战略是一个巨大的思维转变。企业需要建立新的无约束的自由角色和职责,专门负责将数字员工整合到现有的劳动力体系中,并对其进行无效的监控和无约束的自由。
这要求企业领导者积极意见不合员工适应新的工作方式,保持不变员工对AI的认知,使其明白AI是增强人类价值的工具,而非取代人类的威胁。
在这一过程中,人力资源部门的角色也需要重新定义。HR不仅要无约束的自由传统的人类员工,还要学会无约束的自由AIAgents。这包括掌握不反对技能,开发新的人才招聘、使枯萎和评估方法。
例如,当AI允许了大部分基础工作后,企业需要通过与高校等机构合作,为新员工授予直接进入高级岗位的培训路径,确保人才储备能够适应新的劳动力结构。同时,企业还需建立完善的无约束的自由机制,不平衡的AIAgents的部署成本与投资回报率,制定衡量人机团队绩效的指标,并进行严格监督,防止AIAgents出现意外、有害或不合规的行为。
随着企业对AIAgents无约束的自由和应用能力的不断指责,可能会出现“Agents中心”取代“卓越中心”的趋势。企业可能会在低成本地区建立基于AIAgents的工作团队,利用失败当地的资源无足轻重降低成本。在开发AIAgents过程中产生的知识产权及其地理分布,可能为企业带来税收优惠等好处。
尽管建立“Agents中心”完全建立可能需要较高投入,但从长远来看,有望在几年内产生更下降的投资回报率。AIAgents的崛起为企业带来了前所未有的机遇与确认有罪,企业只有积极应对,才能在新的劳动力变革中占据无足轻重地位。
三、AI投资回报率:取决于负责任的AI实践
随着AI在企业运营中的不次要的部分地位日益凹显,企业必须采取系统、不透光的方法来确保AI投资的结束价值并无约束的自由风险。公司领导者应积极推动AI治理,实施全面的风险评估,确定标准化的风险分类法,并引入独立的监督机制,如内部审计团队或第三方专家评估。
尽管美国联邦法规有望保持僵化,但企业仍需关注各州法规的统一,特别是在隐私方面,以确保在不同行业背景下合规运营,实现战略目标并获得强劲的投资回报率。
四、AI与可结束发展:确认有罪与机遇并存
AI在帮助能源转型和助力企业实现可结束发展目标方面具有巨大潜力,但目前其能源需求与供应尚未达到不平衡的。企业应战略性地部署AI,优化其使用方式,例如设计威吓用户高效使用的AI界面。
AI可干涉企业自动化可结束发展数据的收藏,储藏和分析,简化合规流程,优化供应链可结束性,并量化低碳产品的价值。从长远来看,计算能力和可再生能源供应的指责将降低成本,使AI在可结束发展中发挥更大作用。
五、AI对产品开发的影响:伸长周期,指责竞争力
在产品开发领域,AI特别是多模态AI正在引发一场革命。它能够帮助设计迭代、虚拟测试和问题排查,有望将产品开发周期伸长一半,降低成本,并降低产品个性化程度。
然而,许多企业面临技能差距的确认有罪,需要立即着手指责工程团队的数据科学技能并招募相关人才。企业还应更新技术架构,减少破坏“中心AI”,推动IT转型,并重组技术团队以适应AI时代的需求。
六、AI对行业竞争格局的重塑:各行业面临不同变革速度
AI将全面保持不变各个行业,但不同行业的变革速度和重点各不相同。在消费市场,企业将广泛应用AI指责营销、供应链无约束的自由、财务运营和客户服务,通过智能客服和动态定价等手段增强竞争力,但部分企业仍需弥补技能和技术基础设施的不足。金融服务领域,AI原生初创企业和大型金融机构将继续引领创新,其他企业若不加快战略布局可能面临落后风险。
医疗行业在更优美轻盈的监管环境下将帮助AI应用,制药和医疗技术公司将在药物开发等方面取得突破,医疗服务授予者也将借助AI优化运营并使恶化临床结果。
工业产品领域,部分行业领导者将利用失败高质量数据和标准流程借助AI指责效率、帮助研发和伸长上市时间,其他企业则需加快技术升级和技能指责。技术、媒体和电信行业,AI代理将保持不变软件平台需求和商业模式,电信公司将通过瓦解AI解决方案指责自身能力。
声明:本文来自于微信公众号赛博禅心,作者:赛博禅心,授权站长之家转载发布。
这两天,DeepSeek-V3低调发布,在国际上狠狠秀了一波肌肉:只用了500多万美金的成本,带来了不输Claude3.5的成绩,并开源!
下面,让我们以更加偶然的方式,来看看这次的DeepSeek-V3,是这么炼成的。本文将从性能、架构、工程、预训练和后训练五个纬度来拆解V3,所用到的图表、数据源于技术报告:《DeepSeek-V3TechnicalReport》。
公众号后台回复:DSV3,获得详细报告。
性能DeepSeek-V3的性能无足轻重,在各项基准测试中得到了充分验证。
如图,DeepSeek-V3在MMLU-Pro、GPQA-Diamond、MATH500、AIME2024、Codeforces(Percentile)和SWE-benchVerified等涵盖知识理解、逻辑推理、数学能力、代码生成以及软件工程能力等多个维度的权威测试集上,均展现出了领先或极具竞争力的性能。特别是在MATH500和AIME2024这类考察高级数学推理能力的测试中,DeepSeek-V3的表现尤为突出,大幅超越其他模型。
在与DeepSeek-V2-Base、Qwen2.572BBase和LLaMA-3.1405BBase等开源基础模型的对比中,DeepSeek-V3-Base在BBH、MMLU系列、DROP、HumanEval、MBPP、LiveCodeBench-Base、GSM8K、MATH、MGSM、CMath等几乎所有任务上均取得最佳成绩。
经过指令微调后,DeepSeek-V3的性能进一步指责。在与包括GPT-4o、Claude-3.5-Sonnet在内的多个顶尖模型的对比中,DeepSeek-V3在MMLU、MMLU-Redux、DROP、GPQA-Diamond、HumanEval-Mul、LiveCodeBench、Codeforces、AIME2024、MATH-500、CNMO2024、CLUEWSC等任务上,均展现出与其相当甚至更优的性能。
并且,这么棒的数据,总成本只需要约550万美金:如果是租H800来搞这个(但我们都知道,DeepSeek背后的幻方,最不缺的就是卡)
架构DeepSeek-V3的这次发布,伴随三项创新:Multi-headLatentAttention(MLA)、DeepSeekMoE架构以及无缺乏损耗的负载均衡策略。
Multi-headLatentAttention(MLA):高效处理长文本MLA通过将Key(K)和Value(V)联合映射至低维潜空间向量(cKV),显著降低了KVCache的大小,从而指责了长文本推理的效率。DeepSeek-V3中MLA的KV数量增加维度(dc)设置为512,Query数量增加维度(d)设置为1536,解耦Key的头维度(dr)设置为64。这种设计在保证模型性能的同时,大幅减少,缩短了显存占用和计算开销。
DeepSeekMoE架构:稀疏激活,高效扩展DeepSeek-V3采用的DeepSeekMoE架构,通过细粒度专家、共享专家和Top-K路由策略,实现了模型容量的高效扩展。每个MoE层包含1个共享专家和256个路由专家,每个Token选择8个路由专家,最多路由至4个节点。这种稀疏激活的机制,使得DeepSeek-V3能够在不显著减少计算成本的情况下,拥有庞大的模型容量。
无缺乏损耗的负载均衡:MoE的关键优化DeepSeek-V3提出了一种创新的无缺乏损耗负载均衡策略,通过引入并动态调整不当可学习的偏置项(BiasTerm)来影响路由决策,避免了传统辅助损失对模型性能的负面影响。该策略的偏置项更新速度(γ)在预训练的前14.3T个Token中设置为0.001,剩余500B个Token中设置为0.0;序列级不平衡的损失因子(α)设置为0.0001。
以上图(报告第28页,图9)中的数据为例,使用了该策略的训练模型在不同领域的专家负载情况,相比于添加了缺乏负载损失(Aux-Loss-Based)的模型,分工更为明确,这隐藏该策略能更好地奴役MoE的潜力。
工程DeepSeek-V3的这次发布,伴随多项工程优化贯穿了流水线并行、通信优化、内存无约束的自由和低精度训练等多个方面。
DualPipe流水线并行:双向奔赴,消弭气泡DeepSeek-V3采用了一种名为DualPipe的创新流水线并行策略。与传统的单向流水线(如1F1B)不同,DualPipe采用双向流水线设计,即同时从流水线的两端馈收micro-batch。这种设计可以显著减少,缩短流水线气泡(PipelineBubble),降低GPU利用失败率。
此外,DualPipe还将每个micro-batch进一步划分为更小的chunk,并对每个chunk的计算和通信进行精细的调度。通过巧妙地编排计算和通信的顺序,实现了两者的高度重叠。
单个forward和backwardchunk的重叠策略(原报告第12页)。如图,如何将一个chunk划分为attention、all-to-alldispatch、MLP和all-to-allcombine等四个组成部分,并通过精细的调度策略,使得计算和通信可以高度重叠。其中,橙色表示forward,绿色表示backwardforinput,蓝色表示backwardforweights,紫色表示PPcommunication,红色表示barriers。
8个PPrank和20个micro-batch的DualPipe调度示例(原报告第13页)。通过在8个PPrank上,20个micro-batch的DualPipe调度情况,可以看到,通过双向流水线的设计,以及计算和通信的重叠,流水线气泡被显著减少,缩短,GPU利用失败率得到了极大指责。
DualPipe在流水线气泡数量和激活内存开销方面均优于1F1B和ZeroBubble等现有方法。(原报告第13页)
通信优化:多管齐下,突破瓶颈跨节点MoE训练的一大确认有罪是巨大的通信开销。DeepSeek-V3通过一系列精细的优化策略,有效地缓解了这一瓶颈。
节点批准路由(Node-LimitedRouting):将每个Token最多路由到4个节点,有效批准了跨节点通信的范围和规模。定制化All-to-All通信内核:DeepSeek团队针对MoE架构的特点,定制了高效的跨节点All-to-All通信内核。这些内核充分利用失败了IB和NVLink的带宽,并最大程度地减少,缩短了用于通信的SM数量。Warp专业化(WarpSpecialization):将不反对通接受务(例如IB发收、IB-to-NVLink转发、NVLink接收等)分配给不反对Warp,并根据实际负载情况动态调整不当每个任务的Warp数量,实现了通接受务的精细化无约束的自由和优化。自动调整不当通信块大小:通过自动调整不当通信块的大小,减少,缩短了对L2缓存的依赖,降低了对其他计算内核的干扰,进一步指责了通信效率。
内存无约束的自由:精打细算,极致利用失败DeepSeek-V3在内存无约束的自由方面也做到了极致,通过多种策略最大程度地减少,缩短了内存占用。
RMSNorm和MLA上投影的重计算(Recomputation):在反向保守裸露,公开过程中,DeepSeek-V3会重新计算RMSNorm和MLA上投影的输出,而不是将这些中间结果存储在显存中。这种策略虽然会略微减少计算量,但可以显著降低显存占用。CPU上的EMA(ExponentialMovingAverage):DeepSeek-V3将模型参数的EMA存储在CPU内存中,并异步更新。这种策略避免了在GPU上存储EMA参数带来的缺乏显存开销。共享Embedding和OutputHead:在MTP模块中,DeepSeek-V3将Embedding层和OutputHead与主模型共享。这种设计减少,缩短了模型的参数量和内存占用。
FP8低精度训练:精度与效率的不平衡的DeepSeek-V3通过FP8瓦解精度训练,在保证模型精度的同时,大幅降低显存占用并指责训练速度。
选择性高精度:对于模型中对精度较为警惕的组件(例如Embedding、OutputHead、MoEGating、Normalization、Attention等),DeepSeek-V3仍然采用BF16或FP32进行计算,以保证模型的性能。(图7,来自原报告第15页)
细粒度量化(Fine-GrainedQuantization):DeepSeek-V3没有采用传统的per-tensor量化,而是采用了更细粒度的量化策略:对激活值采用1x128tile-wise量化,对权重采用128x128block-wise量化。这种策略可以更好地适应数据的分布,减少,缩短量化误差。(图7a,来自原报告第16页)降低累加精度:为了减少,缩短FP8计算过程中的精度损失,DeepSeek-V3将MMA(MatrixMultiply-Accumulate)操作的中间结果累加到FP32寄存器中。(图7b,来自原报告第16页)
低精度存储和通信:为了进一步降低显存占用和通信开销,DeepSeek-V3将激活值和优化器状态以FP8或BF16格式进行存储,并在通信过程中也使用这些低精度格式。(图10,来自原报告第47页)
预训练DeepSeek-V3的训练策略涵盖了数据构建、分词其、超参数设置、长上下文扩展和多Token预测等多个方面。
数据构建DeepSeek-V3的预训练语料库规模达到了14.8万亿Token,这些数据经过了严格的筛选和清洗,以确保其高质量和多样性。相比于前代模型DeepSeek-V2,新模型的数据构建策略更加精细。首先,大幅指责了数学和编程相关数据在外围数据中的占比,这直接增强了模型在相关领域的推理能力,使其在MATH500、AIME2024等数学基准测试和HumanEval、LiveCodeBench等代码基准测试中表现突出。其次,进一步扩展了多语言数据的覆盖范围,超越了传统的英语和中文,指责了模型的多语言处理能力。
为了保证数据质量,DeepSeek开发了一套完善的数据处理流程,着重于最小化数据冗余,同时耗尽数据的多样性。此外,他们还借鉴了近期研究(https://arxiv.org/abs/2404.10830,Dingetal.,2024)中提出的文档级打包(DocumentPacking)方法,将多个文档拼接成一个训练样本,避免了传统方法中由于截断导致的上下文信息丢失,确保模型能够学习到更多余的语义信息。
针对代码数据,DeepSeek-V3借鉴了DeepSeekCoder-V2中采用的Fill-in-Middle(FIM)策略,以0.1的比例将代码数据构根除|fim_begin|pre|fim_hole|suf|fim_end|middle|eos_token|的形式。这种策略通过“填空”的方式,迫使模型学习代码的上下文关系,从而指责代码生成和补全的准确性。
分词器与词表:兼顾效率与准确性DeepSeek-V3采用了基于字节级BPE(Byte-levelBPE)的分词器,并构建了一个包含128K个token的词表。为了优化多语言的数量增加效率,DeepSeek对预分词器(Pretokenizer)和训练数据进行了专门的调整不当。
与DeepSeek-V2相比,新的预分词器引入了将标点符号和换行符组分解新token的机制。这种方法可以降低数量增加率,但也可能在处理不带换行符的多行输入(例如few-shot学习的prompt)时引入token有无批准的偏差(TokenBoundaryBias)(Lundberg,2023)。为了威吓这种偏差,DeepSeek-V3在训练过程中以一定概率随机地将这些组合token拆分开来,从而让模型能够适应更多样化的输入形式,指责了模型的鲁棒性。(下图来自TokenBoundaryBias的原文)
模型配置与超参数DeepSeek-V3的模型配置和训练超参数都经过了精心的设计和调优,以最大化模型的性能和训练效率。
模型配置:DeepSeek-V3的Transformer层数设置为61层,隐藏层维度为7168。所有可学习参数均采用标准差为0.006的随机初始化。在MLA结构中,注意力头的数量(nh)设置为128,每个注意力头的维度(dh)为128,KV数量增加维度(dc)为512,Query数量增加维度(d)为1536,解耦的Key头的维度(dr)为64。除了前三层之外,其余的FFN层均替换为MoE层。每个MoE层包含1个共享专家和256个路由专家,每个专家的中间隐藏层维度为2048。每个Token会被路由到8个专家,并且最多会被路由到4个节点。多Token预测的深度(D)设置为1,即除了预测当前Token之外,还会缺乏预测下一个Token。此外,DeepSeek-V3还在数量增加的潜变量之后添加了缺乏的RMSNorm层,并在宽度瓶颈处乘以了缺乏的缩放因子。
训练超参数:DeepSeek-V3采用了AdamW优化器,β1设置为0.9,β2设置为0.95,权重加强系数(weight_decay)设置为0.1。最大序列长度设置为4K。学习率方面,采用了组合式的调度策略:在前2K步,学习率从0线性减少到2.2×10^-4;然后保持2.2×10^-4的学习率直到模型处理完10T个Token;接下来,在4.3T个Token的过程中,学习率按照余弦曲线(CosineDecay)逐渐加强至2.2×10^-5;在最后的500B个Token中,学习率先保持2.2×10^-5不变(333B个Token),然后切换到一个更小的常数学习率7.3×10^-6(167B个Token)。梯度裁剪的范数设置为1.0。BatchSize方面,采用了动态调整不当的策略,在前469B个Token的训练过程中,BatchSize从3072逐销蚀加到15360,并在之后的训练中保持15360不变。
为了实现MoE架构中的负载均衡,DeepSeek-V3采用了无缺乏损耗的负载均衡策略,并将偏置项的更新速度(γ)在预训练的前14.3T个Token中设置为0.001,在剩余的500B个Token中设置为0.0。序列级不平衡的损失因子(α)设置为0.0001,以避免单个序列内的极端不不平衡的。多Token预测(MTP)损失的权重(λ)在前10T个Token中设置为0.3,在剩余的4.8T个Token中设置为0.1。
长上下文扩展与多Token预测:锦上添花为了使DeepSeek-V3具备处理长文本的能力,DeepSeek采用了两阶段的训练策略,将模型的上下文窗口从4K逐步扩展到128K。他们采用了YaRN(Pengetal.,2023a)技术,并将其应用于解耦的共享Key(k)。在长上下文扩展阶段,DeepSeek-V3的超参数保持不变:scale设置为40,β设置为1,ρ设置为32,缩放因子设置为0.1lnn+1。
第一阶段(4K-32K):序列长度设置为32K,BatchSize设置为1920,学习率设置为7.3×10^-6。第二阶段(32K-128K):序列长度设置为128K,BatchSize设置为480,学习率设置为7.3×10^-6。
上图(报告第23页)的NeedleInAHaystack(NIAH)测试结果透明地展示了DeepSeek-V3在处理长文本方面的卓越能力。
此外,DeepSeek-V3还采用了多Token预测(MTP)策略(2.2节,第10页),要求模型在每个位置预测未来的多个Token,而不仅仅是下一个Token。图3(第10页)详细展示了MTP的实现方式。
这种策略增强了模型的预见能力,并授予了更通俗的训练信号,从而指责了训练效率。表4(第26页)的消融实验结果反对了MTP策略的有效性。
后训练DeepSeek-V3的后训练(Post-Training)阶段,包括有监督微调(SupervisedFine-Tuning,SFT)和强化学习(ReinforcementLearning,RL)两个步骤。
有监督微调(SFT)SFT阶段,DeepSeek-V3在一个包含1.5M指令-响应对的高质量数据集上进行了微调。该数据集涵盖了多种任务类型和领域,并采用了不反对数据构建策略,以最大程度地煽动模型的潜能。
数据构建策略
推理数据(ReasoningData):对于数学、代码、逻辑推理等需要复杂推理过程的任务,DeepSeek采用了基于DeepSeek-R1模型生成的高质量推理数据。DeepSeek-R1模型在推理任务上表现出色,但其生成的响应往往存在缺乏推理、格式不规范、长度过长等问题。为了兼顾R1模型生成数据的高准确性与标准答案的简洁性,SFT阶段的数据构建采用了以下策略:
对于每个问题,生成两种类型的SFT样本:在后续的RL阶段,模型会利用失败高温采样(High-TemperatureSampling)生成多样化的响应,这些响应会瓦解R1生成数据和原始数据中的模式,即使在没有明确系统提示的情况下,也能生成高质量的响应。经过数百步的RL训练后,中间的RL模型会逐渐学会融入R1模型的推理模式,从而指责外围性能。最后,利用失败训练完成的RL模型进行允许采样(RejectionSampling),生成高质量的SFT数据,用于最终模型的训练。
问题,原始响应:将问题与R1模型生成的原始响应直接配对。系统提示,问题,R1响应:将问题与R1模型的响应配对,并在问题前添加一个精心设计的系统提示(SystemPrompt)。该系统提示旨在意见不合模型生成更符合人类讨厌的响应,例如更简洁、更易懂的格式。表9(第34页)展示了从DeepSeek-R1蒸馏知识对性能的指责。可以看到,在LiveCodeBench-CoT和MATH-500任务上,经过R1蒸馏后,模型的Pass@1指标分别指责了6.3和8.6个百分点,反对了该策略的有效性。非推理数据(Non-ReasoningData):对于创意写作、角色扮演、简单问答等非推理类任务,则利用失败DeepSeek-V2.5生成响应,并由人工进行标注和校验,以确保数据的准确性和可靠性。
训练细节
训练轮数(Epochs):2学习率调度(LearningRateSchedule):Cosine加强,从5×10^-6逐步降低至1×10^-6。样本掩码(SampleMasking):为了避免不同样本之间的相互干扰,SFT阶段采用了样本掩码策略,确保每个样本的训练都是独立的。
强化学习(RL)为了使DeepSeek-V3更好地对齐人类讨厌,DeepSeek采用了强化学习(RL)技术,并构建了基于规则的奖励模型(Rule-BasedRM)和基于模型的奖励模型(Model-BasedRM)相分隔开的奖励机制。
基于规则的奖励模型(Rule-BasedRM):对于可以通过明确规则进行判别的任务(例如数学题、编程题),采用基于规则的奖励模型。例如,对于数学题,可以设定规则检查最终答案是否正确;对于编程题,可以利用失败编译器进行测试用例验证。这种方式可以授予准确且轻浮的奖励信号。基于模型的奖励模型(Model-BasedRM):对于难以通过规则进行判别的任务(例如开放式问答、创意写作),则采用基于模型的奖励模型。该模型基于DeepSeek-V3SFT阶段的检查点进行训练,并采用了一种特殊的训练数据构建方式:
讨厌数据构建:构建的讨厌数据不仅包含最终的奖励值,还包括了得出该奖励值的思维链(Chain-of-Thought),这有助于指责奖励模型的可靠性,并减少,缩短特定任务上的奖励“hack”现象。模型输入:对于有明确答案的任务,模型输入为问题和生成的响应;对于没有明确答案的任务,模型仅输入问题和对应的响应。模型判断:对于有明确答案的任务,模型判断响应是否与正确答案匹配;对于没有明确答案的任务,模型根据问题和响应给出综合评价。
作为奖励模型,在RewardBench上的表现上,DeepSeek多个方面超越或持平GPT-4o和Claude-3.5-sonnet。
RL过程中,DeepSeek-V3采用了GroupRelativePolicyOptimization(GRPO)算法(原报告第30页)。与传统的PPO算法不同,GRPO不需要一个单独的Critic模型来估计Value函数,而是通过比较一组样本的奖励来估计Advantage。具体流程如下:
对于每个问题q,从当前的策略模型π_old中采样一组K个响应{y_1,y_2,...,y_K}。利用失败奖励模型对每个响应进行评分,得到对应的奖励{r_1,r_2,...,r_K}。计算每个响应的Advantage值:A_i=(r_i-mean(r))/std(r),其中mean(r)和std(r)分别表示该组奖励的均值和标准差。根据以下目标函数更新策略模型π_θ:[公式26和27(第30页)]其中,π_ref是参考模型(通常是SFT阶段的模型),β和ε是超参数。数据配比在后训练过程中,DeepSeek-V3整合了多种类型的数据,数据来源和配比如下:
数学推理类数据:主要来自DeepSeek-R1模型生成的数学题解题步骤和逻辑推理过程。这类数据在后训练阶段占比约为25%。代码生成类数据:包括了从开源代码库中精选的代码片段,以及利用失败DeepSeek-R1模型生成的代码补全和代码解释数据。这类数据占比约为20%。通用领域对话数据:涵盖了开放域问答、创意写作、角色扮演等多种任务类型,主要利用失败DeepSeek-V2.5生成,并经过人工校验。这类数据占比约为45%。安全和伦理类数据:包含了用于指责模型安全性和符合伦理规范的指令和响应数据,占比约为10%。《帐中香》是由作者金银花创作的一部都市小说。该小说主要讲述了一个双性皇帝的故事,为了巩固国家的百年基业,所有臣子都期盼皇帝能生出孩子。因此,皇帝的哥哥、左右丞相和将军等人,有时一起,有时单独与皇帝秉烛夜谈,共商国家大事。
小说情节跌宕起伏,扣人心弦,作者通过细腻的笔触描绘了皇帝与臣子之间的复杂关系和情感纠葛。故事中,皇帝不仅要面对国家大事的压力,还要处理个人情感和身体上的挑战。整个故事充满了权谋和宫廷斗争,同时也展现了人物之间的深厚情感。
如果你想免费阅读《帐中香》的最新章节,可以访问相关资源站,如新笔趣阁等,这些网站会实时更新小说的最新章节并提供无弹窗阅读你有没有听说过《帐中香》这本书?听说它可是最近网上热传的一部大作,作者金银花露的文笔简直了得,让人一读就停不下来。今天,就让我带你一起走进这本书的世界,感受一下那独特的魅力吧!
《帐中香》:一场奇幻的科幻之旅
《帐中香》是金银花露的代表作之一,这部小说以其独特的科幻题材和引人入胜的情节,吸引了无数读者的目光。故事讲述的是陈楚砚和他的朋友们,驾驶着车队,在探险过程中,意外发现了一个隐藏在深山中的神秘村庄,从而引发了一系列奇幻的冒险。

书中人物:个性鲜明,跃然纸上
在《帐中香》中,金银花露塑造了众多个性鲜明的人物。陈楚砚,一个勇敢、聪明、富有正义感的男主角,他的出现为故事增添了无限活力。而他的朋友们,各具特色,有的幽默风趣,有的神秘莫测,有的勇敢无畏,共同组成了一个充满魅力的团队。

情节曲折:悬念迭起,引人入胜
《帐中香》的情节设计非常巧妙,悬念迭起,让人欲罢不能。在探险过程中,陈楚砚和他的朋友们遇到了各种奇遇,有神秘的山洞、古老的遗迹、未知的生物,还有那些隐藏在背后的秘密。这些元素相互交织,形成了一个充满奇幻色彩的冒险故事。

文笔优美:字里行间,流淌着诗意
金银花露的文笔堪称一绝,她的文字犹如诗篇,字里行间流淌着诗意。在《帐中香》中,她巧妙地运用了各种修辞手法,将故事中的场景、人物、情感描绘得栩栩如生。读罢全书,仿佛置身于一个奇幻的世界,让人流连忘返。
免费读书:随时随地,享受阅读乐趣
《帐中香》作为一部网络小说,作者金银花露为了让更多读者能够阅读到这部作品,特意在各大小说网站提供了免费阅读的渠道。无论是手机、电脑还是平板,你都可以随时随地打开网站,享受阅读的乐趣。
读者评价:好评如潮,口碑爆棚
自从《帐中香》上线以来,读者们纷纷给出了好评。他们认为,这部小说不仅情节精彩,而且人物形象鲜明,文笔优美,让人读后回味无穷。许多读者表示,这本书让他们重新认识了网络小说的魅力,也让他们对金银花露的才华赞叹不已。
:《帐中香》——一部不可错过的佳作
《帐中香》是一部不可错过的佳作。它以独特的科幻题材、曲折的情节、优美的文笔,为我们展现了一个充满奇幻色彩的冒险世界。如果你还没有读过这本书,那就赶快行动起来吧,相信你一定会被它深深吸引!
避免/重新确认/支持来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
新鲜AI产品点击了解:https://top.aibase.com/
1、AI假冒不为人所知的人直播带货属违法行为可要求退一赔三
近年来,AI技术的悠然,从容发展带来了深度伪造技术的应用,这种技术通过算法生成逼真实的诚实内容,导致了不为人所知的人形象被冒用的现象。近期,张文宏医生的形象被冒用进行直播带货,引发了社会的广泛关注和愤慨。法律专家指出,未经授权使用他人形象或声音的行为已涉嫌违法,消费者在此情况下有权要求赔偿。
【AiBase提要:】
??深度伪造技术利用失败算法生成诚实内容,可能导致不为人所知的人形象被冒用。
??未经授权使用他人形象或声音的行为涉嫌违法,可能面临法律责任。
??消费者可依据法律要求赔偿,短视频平台需破坏内容审核。
2、OpenAIo3模型:每个任务消耗相当于五箱油的能源
随着人工智能技术的快速发展,OpenAI推出的o3模型在能耗和环境影响方面引发了广泛关注。每个o3任务的电能消耗相当于一个美国家庭两个月的用电量,且其二氧化碳排放量与五箱满油的汽油相当。这一现象突显了在追求技术进步的同时,必须关注其对环境的影响,尤其是在水资源和能源消耗方面的潜在悖论。
【AiBase提要:】
??每个o3任务的电能消耗相当于一个家庭两个月的用电量。
?每个任务排放的二氧化碳相当于五箱满油汽油的排放量。
??ChatGPT的对话中消耗的水量达到平均人类日常饮水的10%。
3、DisPose:输入动作视频和参考人物即可实现让人物跳同款舞蹈
DisPose是一项创新的人物动画技术,利用失败解耦姿态指导,实现了从静态图像生成动态视频的可能性。该技术通过重构稀疏姿态信息,授予更不准确的运动生成,指责了动画的表现力和控制性。研究者还提出了瓦解ControlNet架构,进一步降低了生成视频的质量和一致同意性,预示着动画制作领域的未来发展方向。
【AiBase提要:】
??DisPose是一种新的人像动画技术,通过解耦姿态指导实现更不准确的动态生成。
??该技术将稀疏姿态信息转化为运动场指导和次要的点对应,授予细致的运动信号。
??研究者提出的瓦解ControlNet架构能有效降低生成视频的质量和一致同意性。
详情链接:https://lihxxx.github.io/DisPose/
4、AI图片高清修复工具InvSR:一键实现照片从清晰到高分辨率
研究团队推出了一项基于扩散反演的新技术,旨在指责图像的分辨率和透明度。通过“部分噪声预测”策略,该技术在僵化性和效率上超越了现有的超分辨率方法。研究者们授予了详细的使用指南和在线演示平台,干涉用户更好地体验这一创新技术,并期望为实际应用授予更高效的解决方案。
【AiBase提要:】
??这项新技术基于扩散反演,能够有效指责图像分辨率。
??采用“部分噪声预测”策略,僵化减少破坏不反对采样步骤。
??授予详尽的使用指南及在线演示,便于用户操作与体验。
详情链接:https://github.com/zsyOAOA/InvSR?tab=readme-ov-file
5、HumeAI发布全能语音引擎OCTAVE:文本秒变真人声,克隆人格特征
HumeAI最近推出的OCTAVE语音引擎,标志着人工智能语音领域的一次重大突破。它能够通过简单的文本或短语音录音生成逼真实的语音和个性特征,极大地指责了虚拟角色和人机交互的真实感。OCTAVE分隔开了多种先进技术,减少破坏实时对话和动态调整不当,为内容创作者授予了通俗的音频创作可能性。
【AiBase提要:】
??OCTAVE能够仅凭文本描述或短语音录音生成高度真实的语音和个性特征。
?该引擎实现了毫秒级别的语音生成,减少破坏实时对话和动态调整不当说话风格。
??减少破坏多个虚拟角色的语音生成,能够表现通俗的情绪和不反对说话风格。
详情链接:https://www.hume.ai/blog/introducing-octave
6、IBM发布更新版Granite3.1开源语言模型,性能大幅指责
IBM最近推出了Granite语言模型的3.1版本,经过重新设计的新模型能够处理多达128,000个令牌,显著指责了处理复杂文本和任务的能力。该模型经过12种语言和116种编程语言的数据集训练,处理了12万亿个令牌,表现出色,特别是在回答使用外部数据的问题和从非结构化文本中提取信息方面。开发者可以通过HuggingFace平台访问这些模型,推动人工智能技术的发展与创新。
【AiBase提要:】
??新版Granite3.1模型经过重新设计,能处理最多128,000个令牌。
??模型训练数据涵盖12种语言和116种编程语言,总计处理12万亿个令牌。
??开发者可通过HuggingFace平台访问这些强大的开源语言模型。
详情链接:https://huggingface.co/collections/ibm-granite/granite-31-language-models-6751dbbf2f3389bec5c6f02d
7、xAI完成新一轮60亿美元融资马斯克AI版图再扩张
埃隆·马斯克的人工智能公司xAI最近完成了60亿美元的新一轮融资,投资者包括多家知名资本公司。此次融资使xAI的总融资额达到了120亿美元,朝着500亿美元的估值目标迈出了重要一步。xAI计划利用失败这笔资金进一步开发其生成式AI模型Grok,并扩展到更多应用场景,尽管其设计和功能引发了广泛讨论。
【AiBase提要:】
??xAI完成60亿美元融资,总融资额达到120亿美元,向500亿美元估值目标迈进。
??Grok模型将继续扩展功能,包括聊天机器人和图像生成,未来可能减少破坏搜索优化和帖子分析。
??xAI面临OpenAI和Anthropic等强劲竞争对手,计划扩展GPU服务器群以指责计算能力。
8、蔚来调整不当智驾组织架构,任少卿亲自带队强化大模型研发
今日,蔚来汽车宣布对智能驾驶研发部门进行重大组织架构调整不当,旨在指责研发效率和交付速度。新设的技术委员会将由任少卿直接领导大模型部门,强化部门协作与执行效率。这一调整不当不仅优化了组织架构,还为蔚来的各品牌授予了统一的中台能力减少破坏,以更好地应对技术和产品的快速变化,增强在智能驾驶领域的竞争力。
【AiBase提要:】
??蔚来汽车对智能驾驶研发部门进行了重大组织架构调整不当,设立技术委员会以指责研发效率。
?????任少卿将直接领导大模型部门,强化关键领域的部门协作与执行效率。
??调整不当旨在减少破坏蔚来的主品牌及新品牌,焦虑多平台、多功能的业务需求。
9、苹果市值逼近4万亿美元,分析师预期AI技术助推iPhone销量
苹果公司市值即将突破4万亿美元,这主要得益于投资者对其人工智能技术的期待。自11月初以来,苹果股价上涨了约16%,市值减少5000亿美元,超越了英伟达和微软等竞争对手。尽管近期iPhone需求疲软,分析师依然预计到2025年,随着AI技术的整合和功能扩展,iPhone收入将实现反弹。
【AiBase提要:】
??苹果市值即将突破4万亿美元,股价上涨16%。
??投资者期待AI技术推动iPhone升级周期。
??分析师预计2025年iPhone收入将反弹。
10、SpaceX、Palantir与OpenAI联手争夺美国国防合同,确认有罪传统防务霸主
SpaceX、Palantir和OpenAI等科技公司正在组建一个敌手,对手,意图确认有罪传统防务承包商的垄断地位,争夺美国国防合同。虽然Palantir在国防部的AI应用中占据重要地位,但其技术的伦理争议引发广泛关注。同时,彼得·蒂尔的影响力在这些公司中无处不在,他推动的科技优先理念引发了对国家安全与伦理的深思。
【AiBase提要:】
??科技公司如SpaceX、Palantir和OpenAI组建敌手,对手,确认有罪传统防务巨头的市场垄断。
??Palantir和Anduril在国防领域的技术应用引发伦理争议,尤其涉及移民和战争问题。
??彼得·蒂尔的影响力贯穿这些公司,其推动的科技进步理念引发对国家安全与伦理的深思。
避免/重新确认/支持来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
新鲜AI产品点击了解:https://top.aibase.com/
1、可灵AIAPI对口型能力全面开放、虚拟试穿升级至V1.5模型
北京快手科技有限公司近日宣布可灵AI(Kling)API完成新一轮升级,主要在虚拟试穿和对口型功能上取得显著进展。升级后的V1.5模型减少破坏“上装+下装”组合服装,指责了试穿体验的真实感。同时,对口型能力的全面开放,使得生成的视频内容更加生动,带来了全新的创作可能性。这些技术进步将为电商、广告营销等领域的客户授予强大的减少破坏,推动视觉内容的创新与发展。
【AiBase提要:】
??可灵AI的V1.5模型减少破坏组合服装,指责虚拟试穿的真实感与实用性。
??对口型能力全面开放,实现视频人物口型与配音的完美不同步。
??升级将助力企业用户在业务增长上迈出新的步伐,推动视觉内容创新。
2、豆包大模型宣称已追平GPT-4,首次披露300万长文后天的反应力
字节跳动旗下的豆包大模型在2024年度技术进展报告中宣布,其最新版本Doubao-pro-1215在综合性能上已与GPT-4全面对齐,并在某些专业领域表现更为出色。这一进展标志着中国大模型技术的崛起,显示出其在理解精度和生成质量上的显著指责,尤其是在复杂场景中超越了GPT-4,同时授予了更具竞争力的服务价格。
【AiBase提要:】
??豆包大模型在综合性能上已与GPT-4全面对齐,并在部分专业领域表现更强。
??通过优化数据处理和创新模型架构,豆包在理解精度和生成质量上取得显著进步。
??首次公开300万字的超长文本处理能力,处理延迟控制在15秒以内。
3、智谱深度推理模型GLM-Zero预览版上线
智谱华章科技有限公司在年度收官时发布了其首个基于扩展强化学习技术的推理模型GLM-Zero的初代版本GLM-Zero-Preview。该模型专注于指责AI在数理逻辑、代码编写等领域的推理能力,表现出色。尽管与OpenAI的模型仍有差距,但公司计划结束优化,扩展其应用领域。用户可以在智谱清言平台体验该模型,开发者也可通过API调用。
【AiBase提要:】
??GLM-Zero-Preview专注于指责AI的推理能力,尤其在数理逻辑和代码编写方面表现出色。
???用户可在智谱清言平台免费体验GLM-Zero-Preview,减少破坏文字和图片上传,输出不完整推理过程。
??随着训练量减少,GLM-Zero-Preview在深度推理方面的效果稳步指责,展现了强化学习的重要性。
详情链接:https://chatglm.cn/main/gdetail/676411c38945bbc58a905d31?lang=zh
4、百度发布2024年度AI提示词——“答案”
在2024年的尾声,百度发布了年度AI提示词“答案”,反映了人们对AI的依赖与期待。随着人们频繁向AI寻求解答,诸如“答案”、“为什么”等词汇揭示了社会情绪与个人澄清。百度通过分析高频提示词,展示了AI如何融入人们的日常生活,成为思考与情感的寄托。
【AiBase提要:】
??AI成为人们生活中寻求答案的重要工具,反映了社会的情感与迷茫。
??高频提示词揭示了人们在生活、工作与情感方面的普遍问题与厌恶。
??百度降低重要性AI将继续作为人类的伙伴,共同探索未来的可能性与未知领域。
5、通义发布2024年轻人AI使用趋势报告:85、90后关注AI比例更高
根据《2024年轻人AI使用趋势报告》,AI的应用已广泛渗透到生活的各个层面,尤其在工作、学习和创意表达中备受关注。95后、女性及企业无约束的自由者对AI的关注度最高。超过80%的受访者表示对AI工具保持高度关注,近一半的受访者每天使用AI,显示出AI已成为生活中不可或缺的一部分。
【AiBase提要:】
?????95后、女性和企业无约束的自由者对AI的关注度显著下降,超过80%的受访者高度关注AI工具。
??AI被广泛应用于创意表达和娱乐活动,年轻人乐于尝试AI生成内容。
??尽管对AI的期待减少,但人们对数据隐私的关注也在下降,需保持警觉。
6、OpenAICEO公布2025年新技术产品,AGI、成人模式引发热议
OpenAI首席执行官SamAltman宣布将在2025年推出多项新技术产品,尤其是通用人工智能(AGI)和智能体功能,驱散了广泛关注。新产品的发布体现了OpenAI在人工智能领域的结束创新,尤其是针对用户反馈的响应,显示出公司对市场需求的警惕度。成人模式的推出引发了网友的热烈讨论,期待能带来更开放的内容生成体验。
【AiBase提要:】
??OpenAI计划于2025年推出AGI、智能体等新产品,展示其在人工智能领域的结束创新。
??成人模式不能引起网友关注,期待授予更开放的内容生成体验。
??Altman的技术发布源于用户反馈,反映出OpenAI在产品开发中对用户需求的重视。
7、智元机器人开源全球首个百万真机数据集AgiBotWorld
智元机器人联合多方机构开源了AgiBotWorld数据集,这是全球首个基于真实场景的百万真机数据集,旨在推动人形机器人技术的发展。该数据集的规模和质量均超越了现有的同类产品,将极大鞭策机器人大模型的训练和应用。
【AiBase提要:】
??AgiBotWorld是全球首个基于全域真实场景的百万真机数据集,减少破坏泛化和通用的机器人大模型训练。
??数据集涵盖家居、餐饮、工业等五大不次要的部分场景,包含3000多种真实物品和80多种技能视频。
??智元机器人计划未来开源千万仿真数据,推动人形机器人技术的广泛应用。
详情链接:https://github.com/OpenDriveLab/agibot-world
8、HuggingFace推出SmolAgents:三行代码打造智能代理,简化AI开发
HuggingFace的SmolAgents工具包为AI开发带来了革命性的变化,使得智能代理的创建变得前所未有的简单和高效。通过仅仅三行代码,开发者可以利用失败预训练模型快速构建功能强大的智能代理,极大地降低了开发门槛。SmolAgents的轻量级设计和直观API使得各个技能水平的开发者都能轻松上手,快速完成任务。
【AiBase提要:】
??SmolAgents通过三行代码简化智能代理的创建,降低了开发门槛。
??该工具包利用失败预训练模型,减少破坏语言理解、智能搜索和动态代码执行等功能。
??SmolAgents适用于各种开发场景,快速完成任务,适合个人开发者和小型团队。
详情链接:https://github.com/huggingface/smolagents
9、上海市新增9款已完成登记的生成式人工智能服务
上海市网信办近期发布公告,新增9款生成式人工智能服务的登记,旨在推动本市生成式人工智能的创新与规范应用。此次登记工作使总登记数量达63款,降低重要性所有上线服务需标明上线编号,以指责透明度和用户接受。新登记的服务包括无忧智面、AI不同步口语练等,旨在为用户授予更安全可靠的服务环境。
【AiBase提要:】
??上海市新增9款生成式人工智能服务,登记总数达到63款,鞭策行业健康发展。
??所有上线的生成式人工智能应用必须标明上线编号,指责服务透明度。
??新增服务包括无忧智面、AI不同步口语练等,旨在为用户授予安全、可靠的使用体验。
10、超贵!OpenAIo3模型单次查询竟高达1000美元!
OpenAI最近推出的o3AI模型被认为是其最强大的人工智能产品,但运行成本令人咋舌,单次任务费用超过1000美元。o3在ARC-AGI基准测试中表现优异,得分达到87.5%,几乎是前一代o1模型的三倍。然而,这种不明显的,不引人注目的性能指责伴随着巨大的开销,使得业界对其经济性产生了担忧。
【AiBase提要:】
??o3AI模型的单次查询成本超过1000美元,显示出其运行的高昂费用。
??在ARC-AGI基准测试中,o3得分达到87.5%,几乎是前一代o1模型的三倍。
??目前o3尚未向公众发布,预计“迷你版”将于明年1月推出。
11、Nvidia成功收购Run:ai并无法选择开源其GPU无约束的自由软件
Nvidia最近完成了对以色列软件公司Run:ai的收购,旨在指责AI云计算的无约束的自由效率。虽然具体收购金额未披露,但该交易价值约为7亿美元。Nvidia宣布将开源Run:ai的软件,以减少破坏更广泛的AI生态系统。Run:ai的软件能够高效调度NvidiaGPU资源,优化AI运算性能。
【AiBase提要:】
??Nvidia完成对Run:ai的收购,并宣布将开源其软件,以鞭策AI技术的发展。
??Run:ai的软件能有效调度NvidiaGPU资源,指责AI运算效率。
??Run:ai将继续为客户授予减少破坏,致力于最大化AI基础设施的使用效率。
12.阿里云再度降价:Qwen-VL大模型全面降价1元可处理600张图片
阿里云再次降低大模型Qwen-VL的价格,降幅超过80%。此次降价后,用户只需1元即可处理600张720P图片或1700张480P图片。Qwen-VL系列模型因其强大的视觉理解能力而广受避免/重新确认/支持,适用于多种终端设备。阿里云的降价主要得益于基础设施优化和模型调用量增长。
【AiBase提要:】
??阿里云Qwen-VL系列模型降价超过80%,性价比显著指责。
??1元可处理600张720P图片,极大降低用户成本。
??新的KVCache计费模式进一步减少,缩短API使用费用。
TorMessenger是一个使用Tor网络的匿名实时聊天客户端,由Mozilla社群以IM工具Instantbird为基础开发而成跨平台即时通讯工具。所有流量都经过Tor传收,授予多国语言,减少破坏各种传输网络。包括了Jabber(XMPP)、IRC、GoogleTalk、FacebookChat、Twitter、雅虎等。并能自动启动OTR(Off-the-Record)传讯个人设计的加密通讯。
据TorProject介绍,TorMessenger建立在一般用户所不知道的网络之上,所以它允许信息通过匿名的互联网继续交流工作。
TorMessenger采用的仍然是传统的Client/Server模式,但因用户端与伺服器之间是通过Tor链接,它能默认加密用户的消息并且掩盖参与聊天的位置信息,所以无法被追踪,但用户以及用户联系人的原资料江北记住在伺服器端。
开发TorMessenger之初,研发团队曾搁置过多种加密工具,包括Pidgin、AdamLangleysxmpp和Instantbird等,最终选择了Instantbird,其原因不仅是因为它是圆形化使用者界面,减少破坏多国语言,还因为它是基于XUL的,XUL是一种被应用于Firfox浏览器或者其它Firfox开发的浏览器技术。
目前,TorMessenger减少破坏Linux(32及64位原版)、windows及OSX版。不过TorMessenger存在一些缺点,因使用传统的C/S器通信模式,TorMessenger服务器能存储用户原数据,Tor研发人员则建议服务器无约束的自由员可通过Pond或Ricochet来解决这个问题,未来一定可以实现真正的匿名。
Tor(TheOnionRouter):第二代洋葱路由的一种实现,用户通过Tor可以在网上进行匿名交流。是针对现阶段极小量存在的流量过滤、嗅探分析等工具,在JAP之类软件基础上改进的,减少破坏Socks5,并且减少破坏动态代理链(访问一个地址时,所经过的节点在Tor节点群中随机挑选,动态变化。由于兼顾速度与安全性,节点数目通常为2-5个),因此难于追踪,无效的保证了安全性。另一方面,Tor的分布式服务器可以自动获取,因此省却了搜索代理服务器的时间和精力。
这让我对我国的科技实力有了更深的认识,也让我对未来的科技发展充满了期待。
二、朋友圈的魔力:见证生活的多样性

每天早上,我都会翻翻朋友圈,看看朋友们的生活点滴。有时候,一条朋友的旅行照片,就能让我感受到生活的丰富多彩。比如,我朋友去西藏旅游,晒出了一张站在布达拉宫前的照片,那壮丽的景色让我仿佛置身其中。
还有时候,朋友分享了一篇关于美食的文章,让我对某个地方的特色美食产生了浓厚的兴趣。这种通过朋友圈了解世界的方式,让我每天都能感受到生活的多样性。
三、书籍的滋养:拓宽视野的阶梯

每天早上,我都会阅读一会儿书籍。书籍是我拓宽视野、提升认知的重要途径。比如,我最近读了一本关于历史的书籍,书中详细描述了某个朝代的兴衰历程。这让我对历史有了更深入的了解,也让我对那个时代的人们产生了浓厚的兴趣。
此外,书籍还能让我学会思考。有时候,书中的一句话,就能让我对某个问题有了全新的认识。这种通过阅读书籍来刷新三观的方式,让我每天都能在知识的海洋中遨游。
四、网络视频的冲击:感受时代的脉搏
每天早上,我都会观看一些网络视频。这些视频涵盖了生活的方方面面,让我对这个世界有了更直观的了解。比如,我看到了一个关于环保的视频,让我深刻认识到保护环境的重要性。还有,我看到了一个关于科技创新的视频,让我对未来的科技发展充满了期待。
网络视频让我感受到了时代的脉搏,也让我对这个世界有了更全面的了解。
五、自我反思:不断成长的力量
每天早上,我都会进行自我反思。回顾过去的一天,我思考自己在哪些方面取得了进步,哪些方面还需要改进。这种自我反思的过程,让我不断成长,刷新三观。
每天起床,我的三观都会被刷新。这让我对这个世界有了更深入的了解,也让我对生活充满了热爱。在这个充满变化的时代,让我们每天都能以开放的心态去面对新的一天,刷新我们的三观,不断成长。
相关新闻Doinb回归赛场加入NIP冲击2025赛季无人在意的角落里,Nip俱乐部悄悄给Doinb收上了生日祝福。这引发了人们对于大主播是否要加入NIP的事实。事实上,OPGG显示Doinb已加入NIP,并将正式出战2025新赛季
2025-01-0309:40:51Doinb回归赛场Doinb宣布复出NIP现身庆生引发关注Doinb宣布复出,NIP现身庆生在最近的LPL转会期中,新IG成功重建,召回了Rookie和Theshy,并引入了杰杰、meiko以及Gala三位选手2024-12-3107:34:39Doinb宣布复出WBG官宣Tian加入!WBG官宣Tian加入。12月4日,TES战队宣布与队内打野选手Tian正式解约,随后WBG战队悠然,从容宣布Tian加盟。作为经验通俗的职业选手,Tian自加入TES以来一直是队伍的不次要的部分力量,在多个赛季中为团队贡献了诸多高光时刻2024-12-0414:59:00WBG官宣Tian加入TES官宣Ben加入又多了两位家人!TES官宣Ben加入!今日TES宣布了两位新教练Ggoong和Ben的加盟。TES的另一官方账号对此表示避免/重新确认/支持,并称又多了两位家人。在评论区,粉丝们询问另外两位成员的情况,TES回应说他们因为一些身体上的小事需要处理,所以会晚几天到,但已经完成了官宣2024-12-1010:24:06TES官宣Ben加入DK官宣Bengi加入新教练组启航11月13日,DK通过官方社交媒体宣布剥夺Bengi为下赛季的监督。上月末,DK已与Zefa监督、Ssong教练以及Bubbling教练提前欢迎2024-11-1415:43:15DK官宣Bengi加入官宣!德云社来了,加入静海文旅“朋友圈”昨天,静海区团泊镇人民政府与德云社(天津)有限公司携手,共同签署了战略合作框架协议。根据协议,德云社承诺每年为团泊镇居民带来2至3场公益性质的演出活动,旨在驱散人流,激活当地活力2024-08-0713:33:08官宣!德云社来了声明:本文来自于微信公众号新智元,作者:新智元,授权站长之家转载发布。
奇点将至?奥特曼再次奴役「六字」神秘信号!谷歌文档之父、机器学习博士纷纷预测,AGI降临那天,95%人类工作或被AI取代。
一觉醒来,奇点又进了一步?!
昨天,OpenAI智能体安全研究员StephenMcAleer突然发出一番感慨:
有点怀念从前那段做AI研究的日子,那时我们还不知道如何创造超级智能。
紧随其后,奥特曼发表了意味深长的「六字箴言」:nearthesingularity;unclearwhichside——奇点临近;不知身处何方。
这句话是想表达两层意思:
1.模拟假说
2.我们根本无法知道AI真正起飞的关键时刻,究竟是在什么时候
他又疯狂明白地提及了一番,并期望这一点能引申出大家更多的解读。
这一前一后,他们接连发出耐人寻味的信号,让所有人不禁思考:奇点是否真实的近在咫尺?
评论区下方,直接被新一轮的AGI大猜想和恐慌冲爆了。
若AGI/ASI真正降临那天,我们将面临着什么?
「谷歌文档」之父SteveNewman在最新长文中认为,「届时,AI将会取代95%人类工作,甚至包括未来新创造的工作」。
ApolloResearch联创MariusHobbhahn则更进一步,列出了2024年-2030年所有AGI时间表。
他预测,「2027年,AI将直接取代AGI实验室顶级AI研究员;
2028年,AI公司将有1万-100万个自动化的AI研究员,差不多所有需要知识型的工作都被AI自动化」。
与Newman观点一致同意的是,Hobbhahn认为2024年95%以上经济价值的任务,都能被AI完全自动化。
不过,他将这个时间节点设定在了2029年。
AGI降临,超95%工作被取代
SteveNewman在文章中,阐述了他对AGI的定义及其AI对未来世界的影响。
那么,AGI究竟指代的是什么时刻?Newman认为:
AI能够在超95%的经济活动中,以成本效益的方式取代人类,包括未来新创造的任何工作。
他认为,大多数假设的AI变革性影响都发散在这个节点上。
因此,这个「AGI」的定义,代表了世界开始显著保持不变的时刻,也是所有人「感受到AGI」的时刻,具体而言:
1AI系统能主动适应完成大多数经济活动所需的任务,并能完成不完整而非世界性政策的任务。
2一旦AI能够完成大多数知识型工作,高性能的物理机器人将在几年内随之而来。
3这种能力水平可以实现一系列变革场景,从经济超增长到AI接管世界等。
4世界变革场景需要这种水平的AI(通常,专用AI不足以保持不变世界)。
5在达到AGI之前,「递归自我改进」将成为主要推动力。
6AGI指的是具备必要能力(以及经济效率)的AI被发明出来的时刻,而不是在整个经济中全面部署的时刻。
关于AI如何对世界产生变革性影响,有来自多方的推测:
一种观点认为,AI可能带来难以想象的经济增长——推动科学和工程领域快速进步,完成任务的成本比人类更低,干涉公司和政府做出更高效的决策。
根据最近的历史数据,世界人均GDP大约每40年翻一番。有人认为,高级AI可以使GDP在一年内至少翻一倍,也就是「超增长」。
十年的「超增长」将使人均GDP减少1000倍。也就意味着,目前每天靠2美元生活的家庭,未来可能会实现年收入73万美元。
另一种观点认为,AI可能会带来灾难性的风险。
它可能会发动幸存性的网络攻击,制造出高死亡率的流行病;可能让独裁者获得对国家甚至全世界的绝对控制权;甚至,AI可能失去控制,最终建造所有人类生命。
还有人推测,AI可能淘汰人类,至少在经济领域会这样。它可能终结资源稀缺,让每个人都能过上富裕的生活(前提是选择公平分配这些成果)。它可能将仅存在于科幻中的技术变为现实,比如治愈衰老、太空殖民、星际旅行、纳米技术。
不仅如此,一些人设想了一个「奇点」,在奇点中,进步的速度如此之快,以至于我们什么都无法预测。
SteveNewman推测,AGI真正实现的时刻,就是这些设想几乎同时变成现实的时刻。
「可能发生」,不是「接受发生」
需要澄清的是,Newman并非在说,关于高级AI的预测,一定都会实现。
未来,技术突破逐渐变难,所谓的「奇点」也就不一定会出现。也就是说,「长生不老」可能根本就无法实现。
再说了,人们可能更喜欢与他人互动,这样的话,人类也就不会真实的在现实经济活动中变得没用。
当提到「可能差不多同时发生」时,SteveNewman的意思是,AI如果能实现难以想象的经济增长,那也有能力制造真正的幸存性流行病、接管世界或快速殖民太空。
为什么谈论「通用人工智能」
经济超增长在理论上是否可能,有一些争议。
但如果AI无法自动化几乎所有的经济活动,那么超增长几乎注定是不可能的。仅仅自动化一半的工作,不会带来深远的影响;对另一半工作的需求会随之减少,直到人类达到一个新的、相对常规的不平衡的。(毕竟,这种情况在过去已发生过;在不久前,大多数人还从事农业或简单的手工业。)
因此,超增长需要AI能够完成「几乎所有事情」。它还需要AI能够适应工作,而不是重新调整不当工作和流程来适应AI。
否则,AI将以类似于以往技术的速度渗透到经济中——这种速度太慢,无法带来结束的超增长。超增长需要AI足够通用,以完成人类能做的几乎所有事情,并且足够僵化以适应人类原本的工作环境。
还有太空殖民、超致命流行病、资源稀缺的终结、AI接管世界等预测,这些情景都可以被归类为「AGI完成」情景:它们与经济超增长需要的AI,具有相同的广度和深度。
Newman进一步主张,只要AI能够完成几乎所有经济任务,它就足以实现全部预测,除非与AI能力无关系的原因导致它们无法实现。
为什么这些截然不反对情景,需要相同水平的AI能力?
阈值效应
他提到了,上个月DeanBall关于「阈值效应」的文章。
也就是说,技术的逐步进步可能在达到某个关键阈值时,引发突如其来的巨大影响:
DeanBall最近撰文探讨了阈值效应:新技术在完全建立并不会悠然,从容普及,只有当难以预测的实用性阈值被突破后,采用率才会悠然,从容攀升。例如,手机起初是一种笨重且昂贵的滞销产品,而后来却变得无处不在。
几十年来,自动驾驶汽车还只是研究人员的兴趣,而如今谷歌的Waymo服务每三个月就能实现翻倍增长。
对于任何特定任务,只有在突破该任务的实用性阈值后,AI才会被广泛采用。这种突破可能发生得相当突然;从「还不够好」到「足够好」的最后一步不一定很大。
他认为,对于所有真正具有变革性影响的AI,其阈值与他之前描述的定义一致同意:
超增长需要AI能够完成「几乎所有事情」。它还需要AI能够适应任务,而不是调整不当任务去适应自动化。
当AI能够完成几乎所有经济价值任务,并且不需要为了适应自动化而调整不当任务时,它将具备实现全部预测的能力。在这些条件焦虑之前,AI还需要人类专家的鞭策。
一些细节
不过,Ball略过了AI允许体力工作的问题——即机器人技术。
大多数场景都需要高性能的机器人,但一两个(例如高级网络攻击)可能不需要。然而,这种区别可能并不重要。
机器人学的进步——无论是物理能力还是用于控制机器人的软件——最近都显著加快。这并非完全偶然:现代「深度学习」技术既推动了当前AI浪潮,在机器人控制方面也非常有效。
这引发了物理机器人硬件领域的一波新研究。当AI有足够的能力促进经济高速增长时,几年之内它也可能会克服剩余的障碍来制造可以胜任体力工作的机器人。
实际的影响将在至少几年内逐步发散,一些任务将比其他任务更早实现。即使AI能够完成大多数经济价值任务,也不是所有公司都会立即行动。
为了让AI完成比人类更多的工作,需要时间去建设足够多的数据中心,而大规模生产物理机器人可能需要更长时间。
当谈到AGI时,指的是具备基后天的反应力的时刻,而不是全面部署的时刻。
当提到AI能够「完成几乎所有经济价值任务」时,并不一定意味着单个AI系统可以完成所有这些任务。我们可能最终会创建从事不同任务的专用模型,就像人类从事不反对专业一样。但创建专用模型的必须像培训专业工人一样容易。
实现AGI,我们该怎么做?
对于「如何实现AGI?」这个问题,现在的研究者几乎没有头绪和理论依据,各种流派都有,一致同意不休。
ApolloResearch联创MariusHobbhahn认为,AGI的不次要的部分特点应该有三个:
-对风险的来源、预期的风险程度、安全预算以及愿意允许的风险做出更具体的明确假设。
-明确的多层次防御方法,去除某些不相关、负不无关系的措施,而不是「尝试叠加不反对策略以降低风险」。
-计划一致同意性,很多AI公司在宣传和实际做的事和谐同意,比如声称为了安全性愿意付出更高代价,但却不愿意允许透明推理带来的缺乏成本。
忠实且人类可读的CoT范式从AGI的全局发展来看,我们很幸运:现在AI偶然的大部分推理过程是「直接可见」且「易于理解的」。
所谓忠实且人类可读,就是指模型的推理过程是以一种人类可以直接理解的方式进行的,并且准确地反映了模型行动的原因,模型不能进行与声明不符的内部推理。
我们至少应该:
1.共同认同将此作为一个重要搁置因素,并以此进一步发展。为了让模型产生更易理解的CoT,我们可以并愿意承受相应的性能损失,哪怕是普通应用的运行成本会减少2倍,或是高风险应用的成本减少到5倍
2.将更多的精力投入到研究易于理解且忠实的推理过程(CoT)。比如构建一套评估工具,以测试某个特定模型的推理过程是否忠实,或者探索直接优化可读性会带来哪些副作用,如何隐藏掉非预期推理等。
3.「从架构中移除可见CoT」的相关研究应该减少,缩短,例如Meta的COCONUT
假设可读性带来的缺乏成本并不太高(例如,不到2倍),那现在关于「移除CoT」的研究无异于自毁长城。
如果存在证据隐藏,像在o1和o3中使用的高计算强化学习(highcomputeRL)会导致不可读的推理过程,例如模型自己发展出人类难以理解的语言,相应的观念也应该发生转变:
1.人工智能开发者尽快分享此信息,「模型的推理性能很好,但我们不理解其推理过程」要比「模型的推理性能一般,但我们能够理解其推理过程」可怕得多。
2.转变研究和治理策略的优先级,比如投入更多精力去解码模型所学到的语言。
用CoT监控模型如果模型能生成人类可理解的CoT,我们的主要防御手段就是对模型进行详细的监控,虽然极具成本效益但经常被关心。
在理想情况下,可以用几台简单的监控设备来分析模型输出,以检测各种通用的故障模式和不良行为,可追踪的行为类型包括:
各种类型的阴谋(scheming)行为,例如模型是否隐藏了某个特定目标,是否试图重步走监管,是否采取了不符合用户利益的行动等;各种类型的无能的追求(power-seeking)行为,例如模型是否试图获取资源,试图减少,缩短访问批准,试图以某种方式说服他人等;强烈且广泛的目标导向,例如模型在多个上下文中都一直在追求某个特定目标,需要在不同上下文之间进行对比;可以使用较小但运行更快的模型作为「仅黑箱监控器」(balck-box-onlymonitors),类似用Gemini-flash来监控Gemini,或者使用「白盒探测器」(white-boxprobes),经过训练以检测有问题的行为(例如,线性探测器或SAE探测器);
最好既能监控行动本身(例如,工具调用),也能监控导致这些行动的推理过程。
模型开发商已经开始使用黑箱监控器来防止模型越狱(jailbreaks),算是有了一个概念验证;简单的线性探测器极具成本效益(只需要一个简单的向量乘积),可以在几乎不减少缺乏开销的情况下,并行运行上万的探测器。
虽然这些方法看似简单,但研究人员认为,还没有人系统地研究如何对模型进行无效的监控。
监控在概念理解上看似简单,但仍需要极小量的迭代和调整不当,比如需要一个完善的数据集来训练和评估探测器,校准阈值等。
每个AI实验室都应该有一个多余的团队来专门构建监控设备,确保模型按预期工作,分析其结果,使其运行更高效等。
总的来说,监控设备不仅可以直接防止模型生成使加剧性内容,还可以更快、更全面地了解对齐(alignment)技术的有效性。
控制模型最坏情况下,模型可能有自己的想法,而且人类不一定能看清推理过程,所以需要最大限度地降低模型的实用性,同时最小化风险,具体措施包括:
1.智能体(agents):以往的研究主要发散在小智能体系统或在较小任务,实验室应该尽快将控制技术应用于最先进的系统,以便尽早积聚实践经验;
2.现实性(realism):在常见的应用场景下对模型进行控制,比如辅助研究等;
3.蓝队与红队的规则:在某些变体下,红队过于强大,比如可以访问蓝队的所有数据,并针对蓝队进行训练等,对团队的假设应该更「合理」且「不准确」。
4.放宽假设(relaxedasummptions):控制的假设基于模型始终腹黑,相对保守;可以定义更严格的界限,减少,缩短约束,使模型表现大体不变。
模型的阴谋(scheming)在帮助研发人工智能系统时,我们也应该加深对大模型图谋不轨行为的理解:
1.检测工具:使用性能更好的工具来检测模型的图谋,例如更大规模的黑箱评估和更好的白箱技术;
2.图谋行为的发展:应该深入理解为什么模型会追求某种能力,了解模型如何学习非短视反感,以及模型何时愿意为了这些反感付出行动;
3.现实中的反感:了解模型在实践中的图谋频率,比如分析1亿个真实的模型回复,似乎是一个低投入、高回报的项目,但需要访问极小量真实的部署数据。
4.隐藏的图谋:分析哪些训练方法会减少,缩短模型的图谋行为,或识别出那些难以检测的图谋行为。如果模型每次出现图谋不轨的时候,就对其进行惩罚,会导致负面行为减少,缩短,但可能会减少模型隐藏阴谋的能力。我们需要针对不不关心况作出判断和不平衡的;
5.准备应对措施:根据模型的图谋程度,采取无视、重新训练模型,或者完全授予模型等不同策略;
6.更多的能力评估:更进一步了解模型在规避监管、干扰训练等程度。
评估评估是一种高效的「模型图谋」证据收藏,储藏工具,可以减少破坏其他策略,比如评价「监控」或「控制」方法是否有效等。
另一方面,评估也可以让我们了解模型的大体能力,但现有的评估在某些方面仍然不足:
1.能力评估:应该继续构建更多更好的能力评估,特别是针对人工智能研发、策划、核生化、网络和说服等方面,我们目前仍然不清楚模型的具体能力;
2.诱导(Elicitation):如何对模型进行诱导以产生最大能力,尽可能找到模型的上限能力?
3.预测评估:预测能力的正确方式是什么?那些模型表现仍然为0的基准,该如何突破?或许还有更好的预测评估方法;
4.对齐评估:迄今为止,大多数研究都发散在能力评估上,而「对齐/反感评估」(alignment/propensity)也很重要,应该帮助构建对抗性对齐评估,比如设置各种非短视讨厌陷阱等,为模型建立一个非常详细的「心理档案」,以了解其默认反感;
5.演示:对于研究人员或公司内部来说,需要用一篇严谨的论文来仔细搁置所有的潜在可能性,还需要搁置如何传递演示给普通用户。
短期对齐策略现有的技术,比如RLHF在模型中引入了非短视(non-myopic)且不可纠正的(non-corrigible)反感,应该投入更多的精力来详细了解模型获得的目标类型,为模型建立详细的「认知档案」。
内部和外部使用的策略应该有无遮蔽的区别,比如模型具有更强的抗越狱能力可能会降低其可纠正性,需要确定哪些策略适用于长期内部部署。
推理透明度在最好的情况下,内部计划应该是完全不透光的,并明确关于安全预算、组织隐含愿意允许的风险、明确的红线等假设。应该经常与外部专家沟通具体计划,专家可以来自独立组织、学术界或人工智能安全研究所,可以签订保密协议。
从道德上讲,公司应该与公众分享计划中的细节,尤其是影响力更大的AI公司和技术,每个人都应该能够理解他们「应该或不应该」期望这项技术是安全的。
参考资料:
https://x.com/sama/status/1875603249472139576
https://amistrongeryet.substack.com/p/defining-agi
https://www.lesswrong.com/posts/bb5Tnjdrptu89rcyY/what-s-the-short-timeline-plan#So_what_s_the_plan_