模型
1MiniMax M2.7 开源权重发布确认
r/LocalLLaMA 帖子确认 MiniMax M2.7 即将开放权重下载。社区对 M2.5 已有广泛部署经验,硬件配置已经调优。M2.7 在多个基准上有显著提升,开源后预计会迅速被社区量化并集成到各推理框架中。多位用户表示"硬件已经准备好了,就等权重"。
进展
2GLM-5 MoE 权重溢出 SSD 仍可用:缓存动态分析
社区通过详细的缓存动态分析发现,GLM-5 的 MoE 架构在权重溢出到 SSD 后仍然保持了可用的推理速度。原因是 MoE 模型的专家激活模式具有局部性——常用的专家会被缓存在 VRAM 中,不常用的从 SSD 加载。即使超过 1/3 的权重留在 SSD 上,由于缓存命中率足够高,实际推理体验"出人意料地可用"。这对 VRAM 不足但有大容量 NVMe SSD 的用户是重要发现。
进展
3逐权重混合精度:单模型内 INT4-FP32 混合,推理加速 2 倍
社区实验在同一个模型内对不同权重使用不同精度——对模型敏感的关键权重保留 FP32 高精度,对不重要的权重使用 INT4 极低精度。相比统一量化(所有权重相同位宽),这种逐权重混合精度方法在几乎不损失质量的前提下实现了约 2 倍推理加速。方法论上比 GPTQ/AWQ 等统一量化更精细,但实现复杂度也更高。
进展
4LLM 训练可视化:5B token 训练中解码器 block 的变化过程
社区开发者正在训练一个实验性模型,用离散低维样条流形几何替代传统的 MLP 解码器。他记录了模型在 5B token 训练过程中解码器 block 的权重变化,展示了模型如何逐渐学习到有效的表示。这类可视化对理解 Transformer 的训练动态有独特价值,也为非标准架构的探索提供了实证参考。
观点
5Mac Studio 本地 AI 6 个月使用报告
社区用户分享了购买 Mac Studio 专门用于本地 AI 六个月后的真实使用体验。涵盖了日常使用的模型选择、实际推理速度、遇到的问题和意外惊喜。结论是对于 27B 以下模型体验很好,70B+ 需要量化但仍可用,最大的优势是统一内存架构让模型加载极快。对考虑购买 Mac 做本地 AI 的用户来说,这份长期报告比任何 benchmark 都有参考价值。
观点
6本地模型日常使用实用吗?社区坦诚讨论
r/LocalLLaMA 社区坦诚讨论了本地模型在 2026 年的实用性边界。共识是:基础任务(写邮件、翻译、简单问答)已经非常好用,但复杂任务(多步推理、长文档分析、Agent 工具调用)与闭源旗舰仍有差距。社区正在从"追求跑最大的模型"转向"找到本地模型真正擅长的场景",这本身就是生态成熟的标志。
政策
7五部门:AI 教育纳入中小学课程,知乎 103 万热度
五部门联合发文将 AI 教育纳入中小学地方课程体系,知乎 103 万热度激烈讨论。核心争议包括:AI 课程会不会进入中考、高考?城乡教育资源差距下,农村孩子如何获得 AI 教育?是教"使用 AI"还是教"理解 AI"?有教师担忧这会加重课业负担,也有家长认为这是必要的未来技能投资。
行业
8华为自离 N+1 回归传闻,知乎 460 万热度
知乎 460 万热度讨论华为据称对此前自离的员工重新开放回归通道并提供 N+1 补偿。在 AI 人才争夺白热化的背景下(追觅 2 亿年薪招人、宇树挖角),大厂开始"回收"此前流失的核心人才。这反映了具身智能/大模型领域的人才供需已经到了极度紧张的程度,连华为都需要降低身段回头找人。