Follow feeds: blogs, news, RSS and more. An effortless way to read and digest content of your choice.
Get Feederapi.xgo.ing
Get the latest updates from 小互(@imxiaohu) directly as they happen.
Follow now < 10 followers
Last updated 11 minutes ago
about 1 hour ago
详细内容:xiaohu.ai/c/xiaohu-ai/go…💬0🔄0❤️1👀468⚡ Powered by xgo.ing
about 1 hour ago
灵活的"思考级别"控制3.1 Flash-Lite的一个重要架构更新是内置了"思考级别"(Thinking Levels)调整功能。开发者可以选择Minimal、Low、Medium、High四个不同的推理深度,以编程方式动态调节模型的推理强度。模型可以灵活切换:轻量任务(翻译、内容审核):用最小档,跑得飞快、成本极低复杂任务(生成 UI 和仪表盘、创建模拟、遵循复杂指令):拉到高档,推理能力上来Your browser does not support the video tag.🔗...
about 1 hour ago
Google 发布 Gemini 3.1 Flash-Lite价格大约是Gemini 3.1 Pro的八分之一跟上一代 Gemini 2.5 Flash 对比:比 2.5...
about 2 hours ago
彩蛋:5.4 和 CodexOpenAI 在公告里埋了两个预告"5.4 sooner than you Think":大写的 T 暗示 GPT 5.4...
about 2 hours ago
幻觉率显著下降在数据层面,OpenAI给出了一组相当详细的准确性提升数据。他们通过两套内部评估体系来衡量幻觉率的变化:💬1🔄0❤️3👀1386📊2⚡ Powered by xgo.ing
about 2 hours ago
OpenAI发布GPT-5.3 Instant:不再"爹味" ChatGPT终于学会好好说话了GPT-5.2 I最被诟病的问题是语气过于"爹味",一些用户甚至因此取消了订阅。在社交媒体上,ChatGPT的"cringe"回复风格已经成了模因素材。OpenAI显然注意到了这些声音。OpenAI正式发布了GPT-5.3 Instant,修正了一些问题...1、语气正常了:同样问旧金山约会的问题,GPT-5.3 不再先安慰你"你没问题",而是直接聊城市结构性因素(优化文化、情感防备、人口流动性大),像正常人说话。同样问射箭弹道,直接问你弓的类型、箭的质量、目标距离,然后给公式和计算。2、不再揣测你的意图: GPT-5.2 有个让人不舒服的毛病:你在讨论一个假设场景,它突然认为你"需要帮助"然后切换成心理咨询模式。5.3 收敛了这种行为。3、搜索不再"链接堆砌":以前问需要联网的问题,ChatGPT 经常把搜索结果排列出来给你看,跟翻搜索引擎没区别。现在它用自己的认知图谱为搜索结果提供背景解析,先理解你问的是什么,再融合回答。4、写作能力也有提升:小说、散文的写作质量有了明显提升。OpenAI 用的描述是"更具共鸣效果、想象力与沉浸感"。对话风格也从之前那种"戏剧化宣言"变成了更聚焦、更自然的表达,不会再动不动来一句"这是一个令人兴奋的时代!"Your browser...
about 3 hours ago
吃瓜Qwen 模型核心团队多人离职宝玉@doteyQwen 技术负责人 Junyang Lin 今天在 X 上发了一条简短的告别:"me stepping down. bye my...
about 11 hours ago
新款 MacBook Air 产品页,核心信息:芯片: M5,"性能突破再飞跃"续航: 最长达 18 小时快充: 约 30 分钟充至 50%存储/内存:...
about 11 hours ago
兄弟们,新版 MacBook 来了包括 Mac 、MacBook Pro、 MacBook AirM5、M5 Pro、M5 Max 芯片悉数登场续航最长可达24小时,存储容量1TB起步支持蓝牙3,雷雳端口、HDMI、MagSafe、SDXC 卡插槽、耳机插孔,接口齐全💬6🔄0❤️8👀2499📊8⚡...
about 12 hours ago
今晚发布 Gemini 3.1 Flash...🙂💬9🔄0❤️24👀8151📊12⚡ Powered by xgo.ing
about 23 hours ago
x.com/i/article/2028…💬3🔄17❤️41👀14548📊27⚡ Powered by xgo.ing
about 23 hours ago
四款模型用的是同一套 Gated DeltaNet 混合架构,按 3:1 的比例混合了线性注意力和标准注意力模块。线性注意力的好处是内存消耗恒定,不会因为输入文本变长就爆显存。所以即便是 0.8B 这种迷你模型,也能原生支持 262K token 的超长上下文。详细介绍:xiaohu.ai/c/xiaohu-ai/9b…💬0🔄0❤️5👀810📊1⚡ Powered...