Follow feeds: blogs, news, RSS and more. An effortless way to read and digest content of your choice.
Get Feederwechat2rss.bestblogs.dev
Get the latest updates from 腾讯科技 directly as they happen.
Follow now < 10 followers
Last updated about 5 hours ago
about 13 hours ago
原创 奕萱 2025-07-31 14:08 北京 AI正在以一种意想不到的方式,嵌入中国家庭最私密的肌理。 文|奕萱编辑|郑可君AI正在以一种意想不到的方式,嵌入中国家庭最私密的肌理。它不再仅仅是工具,更开始扮演一个微妙的“第三方”角色——在因观念、代际和沟通方式差异而撕裂的家庭关系中,充当起“军师”或“翻译官”。蔡考和程君,这两位年轻女性的家庭,都因AI的偶然介入,经历了一场充满试探、挫折与反复的、漫长的“沟通实验”。AI如同一面镜子,照见了她们与母亲在亲密关系中的僵局,也意外地赋予了她们重建现实关系的力量。这并非一个“科技改变生活”的乐观故事。它更像是一个粗糙的、关于两代人在巨大的认知鸿沟面前,如何借助一个陌生的工具,笨拙走向彼此的现实记录。交锋2025年5月下旬,距离女儿蔡考的又一次相亲还有一周,妈妈张瑞芳特地从浙江赶到上海。她此行的目的,是监督女儿为这场“考试”做万全准备。张瑞芳去上海之前,问蔡考需不需要带过去点护肤品。蔡考说:我这全有。结果张瑞芳发现,蔡考唯一的“家当”是酒店拿来的免费润肤霜。她形容女儿匪夷所思。蔡考第一次相亲见面后没了下文,张瑞芳很焦虑,把这一切都归咎于女儿“长得不像照片”。“再不减减肥、脸上抹点东西,别人就看不上你了。”蔡考暴跳如雷,质问妈妈为什么要代入男人的目光审视、否定自己,为什么不问自己对男生感不感兴趣。听了这话,张瑞芳心想:年轻人就是迷之自信。手握两种截然不同的人生脚本,母女总是这样交锋。张瑞芳觉得女儿“过于女权主义”,蔡考觉得妈妈“思想陈旧”。在AI出现在生活中之前,母女双方经常在家庭群里给对方甩去网络文章。蔡考甩过来:新时代独立女性故事、女权主义理论、“用的女性主义的视角去看国际关系”。张瑞芳甩过来:不结婚的后果、结婚的好处,“女性的黄金期只有18岁到25岁,过了30岁就只能选一个二婚”。面对彼此,母女俩最常做的事情是——默契地忽略这条,然后去回复那条今天中午吃了什么。因为她们心照不宣,如果直面对方,会迎???更强烈的冲突与对决。无论蔡考怎么努力,妈妈总是用一种“你是小孩,我是大人”的语气,讲一些高高在上的话。自己的声音任凭如何振臂呐喊也不被听到,在这样的状况下,蔡考逐渐放弃求得妈妈的理解。然而,彼时她们尚未察觉,一种全新的、冰冷的“介质”,正悄然逼近她们的世界,并将在未来打破这种无声的僵局。在上海车站等待女儿来迎接自己的空档,张瑞芳面对Deepseek讲出了自己内心深处的焦虑:女儿26岁,明天相亲去,但她说自己有点不愿意服美役。怎么办?她有点女权主义。“女儿的女权主义是她价值观的重要组成部分,尊重这一点是沟通的基础。但同时,我们可以帮助她在坚持原则与现实社交中找到平衡。”AI回答。接着,AI迅速罗列出了六条具体建议,其中一条是用“战术性打扮”化解矛盾——适当的打扮不是妥协,而是掌握主动权,先降低沟通阻力,再展现真正思想。AI还给出了一个例子:法国女权主义者西蒙娜·波伏娃也注重外表,但绝不代表她被男权规训。看到这些,张瑞芳醍醐灌顶——某种程度上,AI和自己具有相同的目的,那就是说服女儿打扮得漂亮些再去相亲,但AI思考和表达的锚点,却总是从女儿的感受出发。张瑞芳开始反思,或许自己习惯于代入社会性的目光审视女儿,却忘记,作为妈妈,最重要的是和女儿站在一起。自那以后,张瑞芳一直细心等待着合适的时机,试图向女儿实践自己从AI身上学来的沟通本领。初来上海的那几天,母女二人小心翼翼地回避着关于工作与相亲的核心议题。直到一次坐地铁时,车厢内安静下来,张瑞芳忽然拿出手机,对蔡考说:“你看看DeepSeek的建议,我觉得挺不错。”图源:受访者“你???么会这样问呀,好好笑”,女儿拿起手机捕捉这难得的瞬间,妈妈则佯装生气,母女笑作一团。”你跟这个 AI 聊天我都感觉想哭了。”虽然语言轻飘飘得讲,但是蔡考心里有更深的感觉。2025年春节,蔡考主动向妈妈介绍AI产品使用,想让长辈跟上科技进步的浪潮。蔡考没想到的是,妈妈居然试图通过AI来走近自己。眼泪要涌出来了。这是东亚家庭儿女苦苦追求的“被看见”——不仅仅是话语被听到,更是感受被认可,个体价值被尊重。多年来埋藏在心底的疑惑和委屈,被母亲借助AI的力量温柔地抚平。她意识到,妈妈的爱一直都在,只是过去缺乏合适的“翻译”。嬉笑之间,张瑞芳注意到女儿的片刻安静。两个站在河谷两岸长久观望的人,被AI推了一把,让这段关系心照不宣地走向深水区。一次向算法的“求助”几乎在同一时期,另一段亲子关系悄然破裂的冰层,也在被AI架起新的桥梁。2025年2月初,程君入职律所一周后被解雇。作为刚毕业的法学生,程君还没有经历过职场上的挫折,陷入自我否定的情绪漩涡。离开公司回家的路上程君给父母打电话,讲了几句话之后开始掉眼泪。但程君没有从爸爸那里得到安慰,反而被断定”私企老板就是这样随便开除你”,并将此作为一个劝说程君去考公务员的论据。爸爸一如既往地理性分析程君是不是哪里没有做好,就连妈妈黄爱华在试图安慰女儿的情绪时,爸爸也经常打断:你要跟她讲道理。“如果你考公上岸,不就没有这种事了吗?”对律师行业都不了解的父母,经常说出一些武断的话:私人企业的都是很糟糕的地方、律师就是要经常应酬,甚至有些情况下就是需要出卖身体来换取资源。跟他们沟通,程君常有一种“一锤子打在棉花上”的感觉,生气、难过,还有一种令人窒息的、无法沟通的无力感。话不投机,生气又难过,程君转身回屋。狂风暴雨骤停,只剩黄爱华一人坐在桌前,家里瞬间变得冷清。呆坐片刻,黄爱华也起身回屋。但那个晚上,她却失眠了。黄爱华不断回忆起女儿情绪激动。她凭直觉断定这是女儿成长中的关键时刻,如何教女儿学会面对打击和情绪处理是棘手问题。但黄爱华搜肠刮肚也想不出还能对女儿说些什么。黄爱华辗转反侧,很想要“找个人问问该怎么办”。她想再次拨通丈夫的电话,但随即又打消了这个念头——她知道,自己向丈夫的求助只会带来新一轮的争吵或回避。丈夫的教育理念和黄爱华不一致。丈夫严厉专制,有些大男子主义。每当黄爱华共情与安慰女儿,他总认为这是在“纵容孩子”。在程君的成长过程中,爸爸在情感教育上几乎完全缺席。像许许多多东亚中年女一样,向丈夫求助无门的黄爱华,曾经试图从“妈妈社交圈”找到安慰与帮助。但没过多久她就发现,跟身边朋友或者同事咨询这些问题的时候,对方的回复中常常包含着复杂的情绪。教育本身是很复杂的,同样的一套方法并不一定适配每一个家庭。但朋友和同事不会体察黄爱华的局限与难处,反而会居高临下地指责她“做得不对”。在人生的中年,黄爱华再次陷入一种“生而为母亲”的迷茫无助。黄爱华思绪混乱地翻阅着自己收藏过的那些有关”与女儿相处方法论“的公众号文章,但这些道理终究太过宏大抽象,她所苦恼的,是与女儿相处的细枝末节。在这种孤立无援的境地里,黄爱华想起了女儿曾教她使用的AI。在这之前,黄爱华只是将Deepseek当作工作上的好帮手,并未尝试过用AI进入女儿的世界。一瞬间,一份微弱的、关于沟通转机的希望,在她心中闪烁起来。黄爱华小心翼翼地向AI输入了她的困惑:“女儿刚毕业入职一周被辞退,情绪激动,我该怎么安慰她?”几乎瞬间,一段她自己无论如何也组织不出来的文字,出现在屏幕上。它逻辑清晰,充满共情:“我能理解你现在的感受,这种情况确实让人非常沮丧和失望。你满怀期待地接受了这份工作???甚至推掉了其他工作机会,结果在一周后被通知不适合,这种突如其来地变故无疑会让人感到受伤和不公平”。黄爱华反复读着,觉得AI说的,正是自己想说却说不出口的话。她将这段文字完整地复制下来,发给了女儿。墙壁这边,程君被妈妈发来的一大段微信消息吓了一跳。妈妈急性子,说话干练,写“小作文”安慰别人可不是她的风格。仔细一看,人机感扑面而来,程君刚想着”不会是AI写的吧”,妈妈又发来一段提示词。正被自我否定情绪淹没的程君,看到母亲发来的那段“人机感”十足的文字和截图时,先是错愕,随即笑了出来。那是一种混杂着荒谬和感动的复杂情绪。虽然母亲从未有过的温柔表达竟然是通过冰冷的机器才接收到,但同时她也瞬间明白,重要的不是这段文字本身,而是母亲为了安慰自己,去学习和使用一个新工具的、那种笨拙而真诚的努力。墙壁这边,黄爱华松了一口气。AI给出的建议内容,并非黄爱华从未设想过的角度,但其精准的措辞、富有共情力的表达,却将她内心那团无法言喻的焦灼,凝练成女儿能够接纳的温柔。对于黄爱华这样的中年母亲而言,向AI求助,是一个有些奇特、却又合乎逻辑的选择。当她们发现,无论是自己的丈夫、还是身边的朋友,都无法提供一个中立、客观、没有指责和情绪负担的建议时,那个冷静的、博学的、永远不会不耐烦的AI,便成了一个理想的“树洞”和“军师”。越过鸿沟开始与AI聊天后,张瑞芳才真正读懂女儿。张瑞芳一开始特别不支持女儿留在上海工作的选择。之前张瑞芳对女儿的优秀缺乏感知,也不知道参照系是什么。“我没有进入过这样的生活,不知道生活的各种可能性。AI却具象化地肯定了蔡考一步步走过来的能力。跟 AI 对话的过程中,张瑞芳发现女儿比自己想的更加优秀和坚强,继而转向相信和支持女儿的选择。“您的女儿大学本科跟研究生专业不同,这说明她勇气可嘉,不喜欢就勇敢舍弃,去选自己选喜欢的专业、进入自己喜欢的生活。更重要是,在没有任何家长和亲友的支持的情况下,女儿能够在上海找到工作,租房子、搬房子,也需要一定的实力与能力,请您放心。”拉开距离,张瑞芳才发现很多关于女儿的细节有了不同的意义。也许是太过亲近,疼爱和忧虑都过于真切,以至于需要一个第三视角,参照世界的坐标给出女儿生活的真???注脚。张瑞芳这才猛然想起:2022年女儿去上海实习,碰到疫情封城。原来在家里小公主一样被照顾的女儿,自己把公司发的一大块十斤多的肉切好,不仅喂饱自己,还在互助表分享给别人,乐观顽强地渡过了难关。而蔡考则在母亲后续的言行中,感受到了更深层的改变。母亲不再执着于让她顺应长辈的想法做自己的人生选择,而是开始真正关心起她的工作。她会问:“我看网上说你们芯片行业是有周期性的,那你做的工作具体是干什么的?”妈妈开始试图了解她的世界,而不是改变她的世界。这种爱与理解的心愿,最终促成了母女的和解。相亲之后的下一个周末,张瑞芳又来上海看女儿。这一次,母女二人手挽手聊起相亲的话题,却意想不到的平和。“妈妈只是想教你一种策略,短暂的隐藏自己只是应付这一次的考试,你依然没有变,跟你所支持的女权不冲突。”张瑞芳依据女儿想要生孩子、想要留在上海生活的愿望反推,向蔡考解释自己为什么着急催促她结婚。“我能理解你现在所支持的观念,但主义并不需要每个人必须时时刻刻亲身实践。”短暂的愣住后,蔡考恍然大悟:或许,关于女人如何应对父权制社会的这套经验,母女之间并没有蔡考当初想象的那样割裂。只不过长期的回避态度,让她们误以为母女之间的裂缝很深。图为ChatGPT生成接触AI的半年,黄爱华也对母女关系产生了新的思考。“现在社会变化和信息更新换代非常快,作为妈妈,也要跟社会上的信息同步成长。这样才能在孩子人生的关键节点,给出符合时代的建议。”“如果真的想给我这方面的建议的话,那你们为什么不去收集足够多的消息、不去经过多方面的求证?至少要去了解一下这个行业的现状啊。”看两集职场综艺、找行业的人聊聊,这些事情在程君看来易如反掌。面对女儿的责问,黄爱华感到同样无力。随着年龄的增长,黄爱华和许多长者一样,逐渐退居世界舞台的边缘,年轻的人形容老一辈的人想法落伍了、过时了,但黄爱华却不知道自己到底哪里出了问题。原本清晰可见、游刃有余的生活突然变成了一团大雾。黄爱华那一代人生长于一个信息相对匮乏、社会结构更为稳定的年代,生活经验有限、了解信息的渠道受限,其经验的有效性往往建立在重复和稳定之上。而女儿程君作为互联网原住民一代 ,则身处瞬息万变的信息洪流中,世界观和价值观在多元信息的冲击下不断重塑。直到与AI的对话,让黄爱华突然发现:AI...
about 17 hours ago
原创 腾讯科技 2025-07-31 10:40 北京 判断VLA好坏的标准,是能否完成长程任务和灵活的类人操作。 文|小燕编辑|郑可君7月28日,在2025世界人工智能大会(WAIC 2025)上,出现了机器人和人类打麻将的场景。在麻将桌上,人类抽出一张牌,啪地一声放在桌上:“四万!” 机器人迅速运算,判断此时“杠”是否对自己有利;若判断有利,便需识别眼前能构成“杠”的牌张。经过短暂推理,它果断作出决策:“杠!”就这样,机器人与人类连续对战了30分钟。支撑这一过程的,是机器人所搭载的端到端技术。参与打牌的机器人采用的是灵初智能Psi R1模型,具备基于“Chain of Action...
2 days ago
原创 腾讯科技 2025-07-29 20:15 北京 如何为未来模型和应用做好算力储备 并行科技董事长陈健在腾讯WAIC之夜分享英伟达产品受限的情况下,国产算力如何突围就成了迫切需要回答的问题。7月27日晚,在2025世界人工智能大会(WAIC)期间的“腾讯WAIC之夜”上,围绕“如何为未来模型和应用做好算力储备”话题,并行科技董事长陈健分享了自己的思考。他认为,算力服务是一个高风险的行业,属于重资产投入。“一卡难求时是好生意,算力卡空闲后,随之而来的是巨额折旧和亏损。”算力在供给和需求上存在一定的错配,“有算力只是第一步,更重要的是用起来的算力、是能支持好用户的算力。”陈健说。在他看来,算力服务总是在供不应求与供大于求之间反复,供不应求时,客户可以使用合作伙伴的算力;供大于求时,客户会提高自有算力的利用率,退掉合作伙伴的算力。大家都无法承担算力空置带来的巨大压力。陈健透露,过去大家倾向于使用英伟达的算力,主要是应用容易跑起来、结果准确、性能稳定、用时少。从应用场景来看,算力用户大致可以划分为“基础大模型训练”“行业模型”“场景模型”“学术、科研”“主流大模型推理”“常规通用推理”“常规推理”几种类型,按需求量来划分,基础大模型训练、主流大模型推理等对算力的需求最大。陈健指出,在基础大模型的训练方面,国产算力的适配仍有提升空间——"千卡规模可以胜任,但万卡级别仍面临稳定性与加速比等挑战";而在大模型推理场景(如文生文、文生图、文生视频及图生视频等)中,国产算力已能实现良好覆盖。他强调,当前国产算力已突破"跑起来、跑正确、性能好"三大关卡,若能持续优化性价比,完全具备在多数应用场景替代进口产品的潜力。并行科技创新的“算力买手”商业模式依托专业选型能力,从多元化供应商及算力资源池中精准筛选最适合的算力产品或服务,通过资源整合形成端到端的算力服务闭环。“该模式构建了高效的价值交换机制,将显著激发算力市场的整体活力与创新生态。”陈健表示。以下为陈健主题分享全文(在不改变原意的情况下有删减调整)各位晚上好。今天非常高兴有这个机会在这里做分享,主办方给我的命题比较高大上,但我想了想,和平时讲的“从客户视角看算力服务和算力网服务”内涵是一样的。我准备了几页内容,会尽量简短。 先说第一个点,我从2002年清华博士毕业后一直都在做超算、高性能计算,一直做到2023年年初,突然发现我们做了二十多年的技术,竟然成了大模型训练的基座,而且火了!我们原有业务市场规模大概200亿左右,但大模型领域,国内市场规模至少是原有业务的十倍以上,???来甚至可能达到百倍。算力服务对应的四类市场、客户画像、产品定位等信息为什么这么说?因为我们目前做的比较多的是尖端超算、超级计算机大应用、通用超算以及中小规模的计算业务超算。目前很有幸,国内大多数新能源汽车主要的CAE(计算机辅助工程)仿真设计,都在并行科技的???力服务平台上,这些主要涉及FP64、FP32精度。所以我们说,超算需要的是高精度的计算,智算需要的是BF16、FP8,以及B200上线后出现的FP4。今年三四月份,我们对国内常见的应用做了一次快速搜索,发现这些应用对浮点数的要求和我们之前考虑的基本一致。但后来发现具身智能的应用,对FP32和FP16有混合要求,这就让人疑惑它到底是超算还是智算。既然如此,倒不如简化底层,都采用超级计算机架构,包括这次大会最火的华为384超节点超级计算机,不同应用需要不同精度。最近常被问到,算力到底是怎么回事?为什么有人说算力紧张,有人说算力空闲?过去两年,很多银行负责风控的负责人,反复问算力相关的事,想知道银行如何支持算力企业。我的回答都是一句话:算力服务是一个高风险的行业。原因很简单,它属于重资产投入,一卡难求时是好生意,供大于求时就会出现算力卡空闲,随之而来的是巨额折旧和亏损。我们前天发了2025年半年报,上半年营业额4.57亿,算力服务尤其智算部分同比增长了175%,净利大概增长20%。我们仍是A股市场上做算力服务少数盈利的上市企业。有算力只是第一步,更重要的是用起来的算力,是能支持好用户的算力。所以算力租赁目前风险越来越大。在这种情况下,整个市场该怎么理解?我们认为算力租赁其实就像租车业务,算力服务是按需提供,就像打专车一样,算力运营则要提高算力利用率、服务好客户。算力网络指的是用户有需求时优先用自己的算力,不足时配合使用合作伙伴的。这种模式帮助并行科技在过去十年,穿越了算力供给多次供求关系逆转的长周期。算力行业服务模式类比算力服务总是在供不应求与供大于求之间反复,通过算力网模式,自有一部分资源,再使用一部分合作伙伴的。供不应求时,可使用合作伙伴的算力;供大于求时,努力提高自有算力利用率,减少???用合作伙伴的算力,从而帮助企业穿越周期。毕竟算力生意投资额太大,一旦投的不合适、用户使用不理想,就会非常被动。接下来重点讲一下,我们和国内大多数的国产算力都有过适配,谈谈体会。国产算力都能用,这是比较欣喜的事,但在满足用户需求过程中,用户需要付出额外适配的工作量。为什么大家都喜欢英伟达的算力?因为用户的程序想跑起来、结果正确、性能好,花的时间相对比较少。不同类型芯片的适配工作量情况,仅代表某一应用当时的适配情况今年DeepSeek出来后,客观说DeepSeek和大模型的优化非常难,但过去几个月,开源社区每过一两周就会有很好的开源项目公布,让用户能在国产算力上迅速得到像DeepSeek这样比较好的性能。目前我们和华为合作较多,华为适配的工作量还可以,但性价比还有待提升。其他国产芯片的工作量相对有点大,不过可以确定的是都能投入使用,看用户是否愿意付出这些成本。智算用户的应???场景划分上,我们总结了七个类型,前四个是训练,后三个是推理,这些场景决定了国产算力能不能顶上来。画绿色的场景,我们认为国产算力可以顶上来,没有问题。不同类型智算用户的需求与产品设计差异第一个是基础大模型,可能需要1万张卡来训练,这种情况下,我们认为国产算力暂时顶不上来,千卡规模可以,但万卡有困难,在稳定性、加速比方面都需要提升。推理方面,像文生文、文生图、文生视频,包括图生视频,国内已有非常优秀的企业跑出来了,他们对推理算力的需求很大,这种情况国产算力可以顶上来,但要考虑投入产出比、性价比。我们和国内算力提供商讨论的结果是,若只算电费和运营费,国产算力完全可以使用。暂时先不考虑建设成本,主要还是性价比问题。其他像行业模型、场景模型,以及常用的推理服务,像GLM智谱、Llama之类的,在国产算力上适配好之后都没问题。我们支持学术用户较多,学术做得模型如果是新模型,客观说投入产出比不高,因为做实验、试模型还需要适配国产算力,除非课题就是跟国产算力适配。今年上半年,客户给我们提了个问题,如果不愿意整包算力3年甚至5年,只想按需使用怎么办?比如需要512张卡用三个月完成单独的训练任务,该怎么处理?目前我们分三步:第一步,确认跑什么样的模型、有什么边界条件、对显存、存储、带宽有多少要求;第二步,用一个小时左右做快速的应用运行特征分析,根据业务特点查看国内所有算力,以及200多个智算中心是否有卡、卡是否空闲、能不能跑起来、效果如何、性价比怎样,给出客户选择;第三步,用户根据性价比排序,选择能以最低成本完成任务的算力。据此我们提出了“算力买手”模式,客观说用户自己选择算力也应该使用这个方法。我们目前希望一小时走完这个流程,客户选择后4小时能交付,这是正在努力的方向。“算力买手”模式的运行逻辑总体来说,现阶段就我们观察,国产算力在信创市场肯定胜出了,在商业化市场目前还需要提升,主要还是在性价比上。国产算力逐步解决了跑起来、跑正确和性能好的问题,再提高性价比,大多数场景下完全可以顶上来。AI能量站汇集AI应用实践的基础科普与教程,覆盖全球热门公司、顶尖科学家、研究员以及市场机构输出的人工智能的基础理论、技术研究、价值对齐理论和产业发展报告,以及全球的AI监管政策。帮助AI小白入门,替进阶选手跟踪最新的AI知识。推荐阅读机器人,不能再“演戏”了丨WAIC展会观察辛顿对话周伯文:“让AI变聪明” “让AI变善良”分开研究印奇、邝子平谈“AI+硬件创业”:100万级出货量,机会遍地都是 阅读原文 跳转微信打开
2 days ago
原创 海伦 2025-07-29 18:09 北京 内容市场进入“高度内卷”时代 文 I 海伦编辑 I 萌萌今年上半年,“AI歌手Yuri(尤栗)”火爆出圈,到现在全网播放量已经突破了1000万,成为AIGC内容创作界的一匹黑马。这位“虚拟偶像”背后的操盘手,是汗青工作室旗下AI.TALK品牌的创始人、知名内容创作者赵汗青。7月27日晚,在2025世界人工智能大会(WAIC)期间的“腾讯WAIC之夜”上,赵汗青分享了他对于AIGC内容的冷思考。“我们不是为了省事才做AI,而是为了找到一些新的可能性”,赵汗青在分享中提到。他的分享中没有提任何的“爆款秘诀”,而是将焦点放在产业的演进角度,面对大模型浪潮时的冷静与行业判断。“AI不是让你偷懒,而是让人们更挑剔”。 他主张通过“稀缺内容”和“AI辅助创作”打造长期品牌价值,而非仅依赖流量红利。他提出,真正有价值的内容将越来越依赖于“结构性差异”而非“规模性复制”:“用户会更挑剔,只有在深度和创意层面具备稀缺性、具备长期记忆价值的内容,才有可能穿越算法的周期”。以下为赵汗青的分享内容实录:大家好,我是一个用AI做内容、做IP的人,但最近我发现,越来越难跟别人解释清楚我到底在做什么。很多人以为我们是用AI做视频,也有人以为我们是用AI做音乐,但其实都不是完全准确的。我不知道大家有没有在网上看到一个名字叫“Yuri”的虚拟歌手,她是我们在6月份发布的,也是厂牌孵化的第一个AI原生数字人歌手。她在6月初发布了一首单曲。截止到我最近两天看的播放数据,全网播放量已经突破了1000万,其中600万来自???东亚地区(包括日本、韩国),其余400万在中国大陆,还有部分在北美。当然今天我来不是为了给自己打广告,而是想结合这个案例,聊聊我在做AI内容这两年,所观察和实践中发现的一些商业模式和落地的问题。2023到2025:大模型迭代推动内容边界跃迁先简单介绍一下我自己。我本质上不是做视频出身的,而是来自互联网行业。我在这个行业工作了15年,先后在eBay、阿里、京东等公司任职,相信大家对这些名字都不会陌生。但我并不是工科背景出身,其实我???6岁开始学画画,一直画到大学毕业,所以在我的成长过程中,艺术始终是重要的一部分。2022年我开始选择自己的创业方向时,我身上带着两个标签:一个是“艺术”,一个是“技术”。我当时就在想,有没有一个项目能把这两个看似不搭界的能力结合起来?结果运气不错,赶上了AIGC的浪潮。它刚好处在“用技术做艺术”的交叉点上,我几乎是毫不犹豫地选择了这个方向。虚拟歌手“Yuri”比如我们刚刚提到的虚拟歌手“Yuri”。她的首支单曲,除了作词之外,作曲、编曲、演唱,到视频中的人物与画面,几乎全部由AI原生生成。这首歌的全网播放量很快就突破了千万,对我来说,是一个非常振奋的结果。更让我兴奋的是,关注“Yuri”的大多???观众其实并不是AI圈的人。他们之所以愿意听、愿意看,不是因为“这是AI做的”,而是因为他们觉得歌好听、角色形象吸引人、视频制作精良。这正是我最希望达到的效果:让普通观众因为作品本身而喜欢它,而不是因为技术背景。让我感到意外的是,歌曲上线不到半个月,我们就收到了来自一线时尚品牌...
3 days ago
腾讯科技 2025-07-29 11:40 北京 从神话巨人到具身智能 7月27日,腾讯 Robotics X 实验室与福田实验室联合发布具身智能开放平台 Tairos “钛螺丝” ,腾讯首席科学家、Robotics...
3 days ago
腾讯科技 2025-07-28 20:54 北京 7月28日消息,在近期举办的“X Takeover”活动上,埃隆·马斯克收到的一份特殊礼物——一块刻有“信念”的砖。现场的主持人讲到:“观众为你赠送了一块象征性的‘砖块’,上面刻着:‘这块砖在精神上会飞翔,因为你让不可能成为现实’”。这场活动,是由特斯拉硅谷车主俱乐部主办的年度盛会,马斯克再一次以线上的方式现身,连续第二年与粉丝们展开对话。他分享了SpaceX、特斯拉、Neuralink、xAI及X平台的最新进展与未来愿景。他讲述了星舰的疯狂工程如何将不可能推进现实、关于擎天柱机器人的最新迭代和规划、并畅想了通用人工智能、脑机接口、人机共生的未来,以及人类如何在“AI+机器人”的新时代寻找生活的意义。以下是马斯克访谈内容摘要:星舰的工程挑战与进展问:星舰是有史以来最具雄心的火箭,哪些方面比预期更困难?下一个重要里程碑是什么?马斯克:我从一开始便预判到项目的各个环节都会极具挑战性,因此实际进展并未出现超出预期的困难。星舰在诸多方面都堪称一项疯狂的工程。其推力达到土星五号登月火箭的2.5倍,未来版本将提升至3倍。要知道,土星五号曾是人类历史上体型最大的火箭与飞行载体。与土星五号相比,星舰的推力是其3倍,重量约为其2倍,而它的目标是实现完全且快速的重复使用,这无疑是一项极端艰巨的工程挑战。在我们最初探讨星舰项目时,不仅外界普遍认为这是不可能完成的任务,即便在公司内部,提及此事也常遭调侃,被视作异想天开。如今,我们已从“不可能”的阶段迈入“只是稍晚实现”的阶段。而将“不可能”转化为“稍晚达成”,正是我的专长所在。我建议对该项目感兴趣的人士,可以前往南德克萨斯州的星际基地(Starbase)参观,那里宛如一片“魔法之地”,矗立着巨型火箭。不少参观者都表示深受震撼。基地紧邻主干道,人们可以近距离感受火箭与工厂的宏伟规模。目前,项目中最困难的部分正如我所预期的,是研发完全可重复使用的轨道热防护盾。这是人类从未实现过的技术。传统热防护盾属于消耗性设备,例如航天飞机的热防护盾,每次飞行后都会损耗大量隔热瓦,必须经过翻新才能再次使用。迄今为止,既没有任何机构研发出完全可重复使用的轨道热防护盾,也没有任何团队造出完全可重复使用的轨道火箭。猎鹰9号(Falcon 9)是首个实现助推器常规重复使用且具备经济合理性的火箭。对星舰而言,除了解决热防护盾问题,还需实现上层飞船的着陆,并通过“巨型金属机械臂”(昵称“筷子”)完成捕获。这一场景仿佛科幻电影中的画面,要捕获的竟是人类有史以来最大的飞行载体。我预计最快于今年,最迟明年上半年实现飞船回收。此后,我们将进一步优化技术,使星舰与助推器不仅能够重复使用,更能实现完全且快速的重复使用,从而将每吨有效载荷的发射成本降至低于猎鹰1号(Falcon 1)的水平。届时,运送100吨有效载荷进入轨道的成本,将低于猎鹰1号运送半吨载荷的成本。这是因为我们仅需补充燃料与氧化剂,而非重建火箭。值得一提的是,推进剂中大部分是氧气,约80%为液态氧,20%为燃料。问:星舰接下来面临的技术挑战是什么?马斯克:在实现完全可重复使用后,下一个重大挑战是轨道加油。它类似空中加油,但需在轨道环境中进行,核心是转移液态氧(而非燃料)。这需要两艘星舰完成对接,将推进剂从一艘转移至另一艘,未来甚至可能转移至轨道推进剂仓库。这听起来似乎并不复杂,但实际操作极具挑战性,目前尚无任何机构尝试过。即便像猎鹰9号助推器的常规重复使用技术,尽管我们已证明其价值,至今仍未被行业广泛跟进。轨道加油并非不可能,但难度极高,目前仍是未涉足的领域。火星城市的愿景与意义问:火星上的自给自足城市会是什么形态?需要多少人口?其经济与治理模式将如何设计?马斯克:治理模式将由火星居民自主决定。我们虽有一些火星城市的艺术概念图,但具体细节尚未明确。在火星实现 “地球化改造”(terraforming)、允许人类露天生活之前,初期居民需居住在玻璃穹顶或类似封闭设施中,外出必须穿戴火星宇航服。我想先说明建设火星城市的意义。有人会问:为何不专注于地球?我的观点是,人类99%的精力应投入地球,但1%需用于推动文明走向星际、成为多行星物种。这包含两重意义:一是防御性价值。若地球遭遇重大灾难,如世界大战、类似灭绝恐龙的陨石撞击,我们需确保人类意识的火种不熄灭,保障生命与意识的延续。其他物种无法将生命拓展至其他星球,而人类有能力为它们实现这一点。 其次是激励性价值。生活不应仅局限于解决问题,更需要令人振奋、值得为之奋斗的目标。火星探索如同阿波罗计划,即便未亲身登月,人们也能通过它感受到人类的伟大成就。探索宇宙本质本身,即便无需亲身前往火星,也足以振奋人心。问:SpaceX会成为一家星际公司吗?有相关计划吗?马斯克:希望如此,但这或许不会在我的有生之年实现。不过,它最终会成为一家星际公司。Robotaxi与特斯拉电动车战略问:关于特斯拉的Robotaxi平台,将如何与特斯拉现有车型共存?Cybercab会取代Model 3吗?原因是什么? 马斯克:Cybercab采用双座设计,不会取代Model...
3 days ago
原创 赵阳 2025-07-28 20:54 北京 文 | 赵阳编辑 | 博阳人工智能正像一辆不断加速的列车,载着整个人类驶向一个未知的未来。面对这趟列车,舆论分为截然相反的两派:以雷·库兹韦尔为代表的“技术乐观主义”和以“深度学习之父”杰弗里·辛顿为代表的“技术悲观主义”。前者相信技术将带来文明的飞跃,后者则警告其可能对人类构成巨大威胁。7月27日晚,在2025世界人工智能大会(WAIC)期间的“腾讯WAIC之夜”上,同济大学哲学系副教授余明锋聚焦于辛顿等人提出的悲观主义警告,并对此进行了深入的哲学思辨与回应。余明锋认为,我们既不应盲目乐观,也不必泛泛恐惧,而应采取一种“技术消纳”的立场。单纯讨论如何为AI“戴上伦理枷锁”是不够的,因为AI的核心挑战在于它深刻地改变了“人类的伦理处境”——它可能重塑劳资关系、制造代际伦理困境和催生新的社会阶层。因此,我们需要的不是简单的恐惧或抵制,而是具体地分析和消化AI带来的挑战与机遇。通过这种“消纳”,AI才能真正融入生命,让它成为未来“人机共生”的有益组成部分,而非一个我们无法控制的“文明木马”。划重点:AI是 “文明的木马”,表面带来便利,但其隐藏的 “文明消息”...
4 days ago
原创 苏扬 2025-07-28 14:52 北京 来自被AI 1.0“毒打”的创业者的洞察。 启明创投·创业与投资论坛 邝子平对谈印奇文丨苏扬编辑丨郑可君《麻省理工科技评论》每年都会发布一份“35岁以下科技创新35人” 榜单。“刚刚在台下,Duane(启明创投创始主管合伙人邝子平)问我一个很伤人的话题,他问我是不是不能评选Under 35了。”千里科技董事长、旷视科技CEO印奇在启明创投·创业与投资论坛上与邝子平的对话环节上说。作为一个大龄AI创业者,印奇先后经历了AI 1.0时代和AI...
4 days ago
原创 晓静 2025-07-28 14:52 北京 来自AI春晚的“新共识”。 文|晓静编辑|萌萌7 月 26 日,顶着 32 ℃...
5 days ago
原创 苏扬、晓静、木木 2025-07-26 22:40 北京 文|苏扬 晓静 木木编辑|云云“大模型真的可以理解‘人类理解问题的方式’,和人类理解语言的方式是一样的。”图灵奖得主、诺贝尔奖得主、计算机学家杰弗里·辛顿在WAIC25大会上说。不过,辛顿此次来中国,并不为了再去复述大模型的能力有多强,而是要为越来越强大,甚至已经呈现出超越人类智力的AI套上“紧箍咒”——既要让它为人类服务提效,也避免“AI觉醒”而失去控制。在此之前,辛顿、姚期智、本吉奥等在内的专家学者,围绕AI安全这个话题签署了“上海共识” “北京共识”等文件,呼吁对能力不断进化的大模型“划红线”。在辛顿看来,今天的大语言模型——它们在本质上与人类相同,都是把词映射到高维特征,再像“多维乐高积木”般灵活“握手”组合,完成语义建模。但同时,辛顿也提醒,大模型与人脑相比,具有“软件‑硬件分离”的差异,这种差异也赋予了数字智能知识“永生”的潜力,也恰恰是这种“数字永生”,暗藏着高能耗、失控等危及人类安全的风险。“我们没有办法消除AI,即使一个国家消除了AI,别的国家也不会这么做。如果我们想要人类生存的话,必须找到一个办法来训练AI,让它们不要消灭人类。”辛顿说。辛顿提出,若要避免被自身创造的“智能”反噬,必须携手研究“让 AI 向善”的训练方法,建立跨国协作网络,为未来超越人类智慧的机器奠定安全边界。划重点:过去六十年,人工智能沿着逻辑符号推理与生物神经学习两条路线并行发展,这两种范式共同强调“理解先于学习”。从1985年的特征预测原型,经由本吉奥的大规模语言模型、词向量嵌入的普及、谷歌 Transformer...
5 days ago
原创 苏扬 2025-07-26 22:40 北京 文丨苏扬编辑丨郑可君辛顿本次中国行高频现身各种“炉边对话”,这位AI先驱对中国人工智能生态给予了超高的重视。7月26日,2025 WAIC科学前沿全体会议现场,上海人工智能实验室主任、首席科学家周伯文教授与杰弗里·辛顿(Geoffrey Hinton)开展了一场浓缩高密度智慧的对话。在此之前,辛顿先后参与签署AI安全“上海共识”、出席WAIC开幕式谈“约束AI避免养虎为患”。和周伯文的对话总共17分钟,围绕AI意识、安全、科学等话题展开,而在开场前,辛顿收获了“全场起立鼓掌”的超高礼遇,熟悉他的人都知道他因为患有腰间盘突出已经多年保持站立办公。辛顿认为,人类对“意识”、“主观体验”等概念的理解存在严重偏差,而AI是否具备主观体验这种争论,恰恰就源自于这种理解偏差。在辛顿看来,多模态模型可能已经拥有某种形式的“主观体验”。他认为,当AI能够从自身经验中学习,它们将发展出超越人类的认知能力。不过他也强调,AI的“体验”不同于人类,但同样真实。基于AI能力与安全风险的双重提升,辛顿建议将“让AI变聪明”和“让AI变善良”的技术分开研究,每个国家可共享“善良技术”而不泄露核心智能技术。关于共享超级智能相关技术,与辛顿一同签署“上海共识”的计算机科学家斯图亚特·罗素说,“只要大家共享超级智能技术,人类就可以避开互相追赶的‘囚徒困境’。”辛顿预测,AI将彻底改变科学范式,这种趋势已经在“AlphaFold解决蛋白质折叠问题” 、“AI超越传统PDE模型预测天气”等案例中得以体现。关于AI推动科学技术的突破,辛顿在现场对全球青年科学家喊话,他认为“反共识”探索,已经成为AI与科学进步的共同逻辑。辛顿说:“真正的突破源于质疑主流观点,即使他人反对,也要坚持自己的直觉,直到亲自验证其错误,这种坚持,偶尔会带来颠覆性的发现。”以下为对话全文实录: 周伯文:Jeff,您能亲临现场对我们所有人来说都是莫大的荣幸。我想请教一个您本周早些时候提到过,但今天上午没有时间在台上讨论的问题——关于多模态模型的主观体验。您认为可以证明即使是当今的多模态和语言模型也能发展出自己的主观体验。您能详细阐述一下吗?Hinton:我认为关于它们是否具有意识或主观体验的问题,严格来说这不是一个科学问题,而是取决于您如何定义“主观体验”或“意识”。我们大多数人对这些概念的理解模型都是完全错误的。就像人们可以正确使用词语,却对词语如何运作持有完全错误的理论。让我用一个日常词汇的例子来说明。“水平”和“垂直”这两个词,大多数人都认为自己理解它们的含义,但实际上他们的理解是错误的。假设我手里有很多小铝棒,它们朝向各个方向。我把它们抛向空中,它们翻滚、碰撞,然后我突然让时间静止。这时空中有很多铝棒。但问题来了:在垂直方向1度范围内的铝棒更多,还是水平方向1度范围内的铝棒更多?或者数量差不多?几乎所有人都回答“差不多”,因为他们对词语的运作方式的理解是错误的。实际上,水平方向1度范围内的铝棒数量是垂直方向的约114倍。这是因为“垂直”是非常特殊的方向,“水平”则很普通。但人们不知道这一点。这个例子看似与意识问题无关,但它说明:我们对词语运作方式的理解可能是完全错误的。同样,几乎每个人都对“主观体验”这类术语有着强烈但完全错误的理论。这不是真正的科学问题,而是源于我们对心理状态的错误模型。我们有这些用来描述心理状态如何运作的术语。并且有了错误的模型,我认为你会做出错误的预测。所以,我的观点是,当今的多模态聊天机器人已经具有意识。周伯文:这听起来让在场的许多研究者感到震惊,但在这次会议上,另一位加拿大科学家Richard Sutton 在你之前做了一个演讲,题目是《欢迎来到体验时代》。我认为他的演讲想要表达的意思是,当我们现在已经耗尽人类数据时,模型可以从自己的体验中学习很多。您从另一个角度阐明了,代理或多模态LLM,不仅从经验中学习,它们还可以发展出自己的主观体验。所以,我认为理查德今天没有过多触及这种从主观体验中学习潜在风险。您想多说说这个吗?事实,或者说您的理论或假设,到目前为止,代理可以学习主观体验,这是否会在未来带来任何潜在风险?Hinton:的确,目前的情况是,例如,大型语言模型从我们提供给它们的文档中学习。它们学会了预测一个人会说的下一个词。但是,一旦你有像机器人这样的在世界中的代理,它们就可以从自己的经验中学习,而且我认为它们最终会学到比我们多得多。我认为它们会有经验,但经验不是实体,经验是你和一个物体之间的关系。周伯文:所以,几天前当我们在IDAIS讨论前沿风险时,您提到了一种减少未来AI风险的可能解决方案,就是找到一种方法来训练AI,使其将不同的特性分离开来。例如,一个善良的AI,一个聪明的AI。您有办法做到吗?……Hinton:我不是那个意思。我的意思是,你会有既聪明又善良的AI,但如何训练它变得聪明和如何训练它变得善良是不同的问题。你可以有让它善良的技术和让它聪明的技术。它将是同一个AI,但会有不同的技术。所以,国家可以共享让AI变得善良的技术,即使它们不愿意分享让它聪明的技术。周伯文:我真的很喜欢那个想法。但是,我对我们能在这方面走多远有些疑问。你认为会有某种通用的AI训练来使AI变得善良吗?这些方法可以应用于任何AI模型、任何智能水平?Hinton:那是我的希望。它可能不是真的。但这是一种可能性。我认为我们应该研究这种可能性。周伯文:是的,确实如此。我提出这个问题并不是因为我不喜欢这个想法,而是因为我想提高人们的意识,让更多人能在您提到的方向上进行更多研究。而且我想在这里做一个类比,来向您展示为什么我有这个疑问。以物理学为例,当物体以低得多的速度运动时,牛顿定律是有效的。但是当这个物体运动到更高的速度,接近光速时,牛顿定律就不再适用了,所以我们必须求助于爱因斯坦来获得更好的解决方案。顺便说一下,这有点好笑,因为我正在向一位诺贝尔物理学奖得主讲解物理学101(大学物理入门课)。Hinton:但这是一个错误。周伯文:哦不,这不是错误。你绝对值得获得诺贝尔奖。Hinton:他们确实很想在人工智能领域设立诺贝尔奖,但目前并没有这个奖项。所以,他们就将物理学奖颁给了人工智能领域的贡献者。周伯文:但我想用这个类比来说明一个观点,我认为对于不同层次的智能系统,善意约束可能需要改变。我不知道这是否正确,但我确实希望在这个房间里或在网上的那些聪明的年轻人,他们可以想出办法来实现这一点。Hinton:是的,很有可能,随着系统变得更加智能,让它变得善良的技术也会发生变化。我们不知道。这就是我们现在需要对其进行大量研究的原因之一。周伯文:很多人对杰夫印象深刻,作为一位成就卓著的人,你经常说,“我不知道”。我觉得这非常诚实和开明。我们都要向你学习。除了AI问题,我们现场还有一半来自量子物理、生物学等不同科学领域的顶尖学者。今天我们齐聚一堂,正是因为相信AI与科学的交叉融合将带来突破。您如何看待用AI推动科学进步,或者反过来用科学促进AI发展?Hinton:我认为人工智能对科学的帮助是显而易见的。显然,迄今为止最令人印象深刻的例子是蛋白质折叠,Demis...
6 days ago
原创 苏扬 2025-07-25 18:44 北京 AI带来的治理挑战并非单一体制能够应对 AI安全国际对话上海共识签署现场,辛顿、姚期智等专家合影文丨苏扬编辑丨郑可君7月25日,一份由杰弗里·辛顿(Geoffrey Hinton)、姚期智、本吉奥(Yoshua Bengio)等超过20位行业专家、学者共同签署的AI安全国际对话上海共识(以下简称“上海共识”)正式公开。该共识强调,人工智能系统能力已接近甚至可能超越人类,但人类尚未掌握有效的控制它的方法,因此,呼吁全球增加对AI安全的投入。作为本次共识发起方之一,图灵奖得主、上海期智研究院的院长姚期智表示,“我们要达成共识并且标明风险切实存在,需要大家携手寻找解决方案。希望基于自身所处的位置,去促成一些国际安全相关合作,最后则是通过研讨会的形式去探讨在剧烈的变化过程中,发挥人工智能的优势,以帮助应对随之而来的挑战。”“上海共识”中联名签署的专家普遍认为,人类正处于一个关键转折点——人工智能系统正迅速接近并可能超越人类智能水平。这些未来的系统可能在操作者毫不知情的情况下,执行并非操作者所期望或预测的行动。这可能导致失控,即一个或多个通用人工智能系统脱离任何人的控制,从而带来灾难性风险。“这项技术现在处于一个可以推翻人类文明与控制的阶段,对AI系统来说,它就像疾病大流行一样,可能在任何一处发生。”加州大学伯克利分校的计算机科学教授罗素说。关于人工智能能力的具体体现,“上海共识”强调,已经有部分人工智能系统展现出削弱开发者安全与控制措施的能力与倾向,但相关证据主要是在实验场景中发现,人类还未掌握已知的方法,能够在更高级的通用人工智能超越人类智能水平后,仍能可靠地确保其对齐。更直白地理解,即人类还没有掌握有效控制高级通用人工智能的办法。罗素透露,目前已经观测到在人类明令禁止AI使用核武器的情况下,AI在感知到自身威胁的情况下,还是会擅自决定发射核武器,甚至会尝试通过不断复制来规避关机的行为。“它们通过预设程序将自身代码复制到不同终端,以此规避被关机。”罗素说。2024年,辛顿、姚期智、罗素、本吉奥等专家共同签署的“北京共识”聚焦在对AI风险的划定、治理、评估、与合作几个部分,尤其是呼吁行业为AI的研发和应用戴上“紧箍咒”,避免相关技术被滥用,而“上海共识”则是聚焦通用人工智能系统的对齐与控制,提前规避安全风险。“上海共识”认为,高级人工智能系统在部署时已对齐并处于人类控制之下,其必要性已获得关键决策者普遍认同,但是AI能力发展速度远超AI安全的研究和发展速度,因此在强化AI安全技术方面,除了推动全球协作以外,共识更是强调在必要时可自主行动。为此,上海共识提出了三大建议:“要求前沿人工智能开发者提供安全保障” “???过加强国际协调,共同确立并恪守可验证的全球性行为红线” “投资基于设计的安全人工智能研究”。其中,要求开发者提供安全保证提到,部署强大模型之前,除了要做好内部安全评估外,应委托第三方独立评估,同时对超越关键能力阈值的模型还要向监管部门、公众做好信息披露,并在上线之后有清晰的风险响应机制和立即关停系统的能力。加强国际协调,共同确立并恪守可验证的全球性行为红线,核心是联动国际社会来确立具体、可操作、受全球认可的红线,核心则是呼吁建立一个统一的协调机构来推动红线落实和标准统一。投资基于设计的安全人工智能研究,主要是强调短期内亟需建立可扩展的监管机制以应对人工智能的欺骗问题、提升模型对“越狱”等攻击手段的抵御能力、强化信息安保投入等,而长期则需要一个“基于设计的安全”的架构,而非问题出现后才被动应对。作为“上海共识” 、“北京共识”的共同签名者之一,霍普金斯大学约翰分校、彭博人工智能协调与治理特聘教授吉莉恩·哈德菲尔将人工智能定义为一个全球公共品,需要跨国界合作,“人类本质上是一个协作物种,AI带来的治理挑战并非单一体制能够应对,尽管当前的科学合作会面临一些障碍,但是在这个关乎技术路线与治理方式的议题上,我们必须重识合作精神。”“我越来越相信,人类终将找到解决方案。”姚期智说。姚期智透露,18个月前举办第一次安全共识会议时,AGI强大的破坏力就已经显现,人类甚至难以阐明其失控机制,不过随着相关会议的推进,已经看到若干有关“设计安全”(Safe...