Follow feeds: blogs, news, RSS and more. An effortless way to read and digest content of your choice.
Get Feederwechat2rss.bestblogs.dev
Get the latest updates from 浮之静 directly as they happen.
Follow now < 10 followers
Last updated 20 days ago
21 days ago
lencx 2025-08-28 23:01 上海 今天 git ssh 莫名其妙抽风了,无法 pull/push 代码,一直提示超时、端口错误啥的。各种修改 git config...
29 days ago
原创 lencx 2025-08-20 17:26 上海 在大力发展基座模型能力后,就要通过各种约束让模型下地干活了... 2022 年 11 月 30 日,ChatGPT...
about 1 month ago
原创 lencx 2025-08-15 21:44 上海 面对破烂不堪的现实,我有太多话想说...技术搞多了,AI 看多了,仿佛自己什么都很懂,很“厉害”,但现实会让我时刻谨记“自己只是一个普通人”。身为一名技术人,文章很多时候只是我对外表达思想的窗口,但我更是农民的儿子,这一次我也想为他们写点什么。今天本来想写篇关于 AI 的文章,写到一半,被我妈的一个微信视频打断了。接通视频,我妈的第一句话是:你又在搞技术啥的啊,我和往常回答差不多,稍有不耐烦地说了句“嗯”。但我妈接下来的话,让我不淡定了。她说:“咱家梨昨天不是刚卖完,但中介说不给钱,想要钱等明年再说吧,我心里不舒服,就想找你聊聊”。说实话,我刚听完这句话,已经炸了。然后跟我妈说,直接报警吧,交易款金额在 3 万多,绝对可以立案。整个通话有 40...
about 1 month ago
原创 lencx 2025-08-14 23:21 上海 从小白到专家:渐进式大模型提问指南! 以下内容由 lencx & GPT-5 Thinking 共同创作。我之前就写过一篇...
about 1 month ago
原创 lencx 2025-08-13 14:03 上海 OpenAI 主打一个听劝,不但模型选择回归,还大幅提升了 Plus 用户 Thinking 模式的使用额度... 这几天,ChatGPT...
about 1 month ago
原创 lencx 2025-08-11 17:10 上海 你要把大模型当朋友,反复 PUA... 通过两天的代码实战,我总结出了一些有趣的结论。本文虽以代码为例,但结论适用于任意场景。注:文末附有 Prompt 通用模板和一些实用技巧,以及 GPT-5 交流群,方便大家进一步交流探索。最近两天,我和...
about 1 month ago
原创 lencx 2025-08-09 17:25 上海 强制 GPT-5,曾刷爆全网的 GPT-4o 真要落幕? OpenAI 做了个看似很“傻 X“...
about 1 month ago
原创 lencx 2025-08-08 12:24 上海 当大模型基座开始下场卷 Agent,卷应用(你还别说,vibe coding 渐变色真挺“炫”)... 熬夜看了 GPT-5[1] 发布直播,通宵写文章,直到现在才勉强写完。给我最大的感受是...
about 1 month ago
原创 lencx 2025-08-06 16:55 上海 CloseAI 突然 Open 了,不知 Anthropic 作何感想... 人工智能领域的格局再次发生转变!在被社群冠名...
about 2 months ago
原创 lencx 2025-07-30 13:55 上海 突如其来的海啸预警,让我第一次感觉“玄学离自己如此近距离”... 我之前就看过好几个博主在分享 2025 的各种预言故事,印象最深的就数日本漫画《我所看见的未来》了,因为它也是离我们最近,而且是还未发生的事。本来以为 7 月已经接近末尾没啥发生了,谁知突发新闻“海啸来袭”...注:请理性科学看待,本文只做事件陈述。预言先来简单介绍一下这本漫画,其实我也没看过,只是之前在视频里看到过介绍,就临时整理了一下 wiki...
about 2 months ago
原创 lencx 2025-07-29 16:40 上海 不能回归理性,很可能就是下一个泡沫... 今年的上海世界人工智能大会(WAIC)异常火爆,总能看到各种刷屏。这次的 WAIC 我虽未报名,但连续三晚参加关于 WAIC 的 party...
2 months ago
原创 lencx 2025-07-15 14:40 上海 任重道远... Andrej Karpathy 最近两个帖子挺有趣,我把它们整理在一起,并做了些补充。RL 的局限与反思目前,扩展强化学习(RL)规模成为研究热点。从当前趋势来看,RL 很可能会继续带来一系列中间层级的性能突破;但我们也有理由相信,它并不是通向通用智能的终极解法。从原理上看,RL 的核心机制其实相当朴素:某个策略恰好带来了好的(或坏的)结果,那就略微提升(或削弱)该策略中各个动作未来被采样的概率。这种“事后加权”的方式虽然在形式上接近生物启发,但信息利用效率极低:一段长达数分钟甚至数小时的交互过程,最后仅产生一个标量奖励值,然后我们就基于这个值来微调整个策略梯度。这样的方式,随着任务时长与复杂度的上升,显得愈发不对称与低效。📌...