知鸦日报2026-04-07

2026-04-06 16:30:00 ~ 2026-04-07 16:30:00

기술

在OpenStack使用Ceph纠删码存储

摘要

Ceph与OpenStack这对黄金搭档在私有云中大显身手,RBD+纠删码方案既省空间又稳如狗!元数据放副本池保证快照克隆嗖嗖快,数据块用纠删码池直接省下一半硬盘钱。OpenStack魔改两行代码就搞定适配,克隆操作玩出花——改个指针就能秒创镜像,真实数据等写入时才搬砖。这波操作让云平台既能扛住高并发,又能把存储成本打下来,堪称白嫖界的技术天花板!

How I built a chief of staff on OpenClaw that's better than any human I've hired

摘要

一位VC通过OpenClaw打造了AI助理Stella,超越人类首席幕僚。Stella具备记忆层和持续改进机制,能自动记录每日笔记并整合长期记忆,确保无遗漏。她处理会议准备和后续跟进,管理任务优先级,追踪关系和重要信息,并通过邮件和日历过滤日常琐事。Stella还通过Kaizen循环每周自我优化,结合LLM推理和脚本确定性操作,提供高效支持。这种模式显著提升了工作效率,未来潜力无限。

「纯干货」几万字都讲不明白的Memory架构与思考

摘要

Memory是Agent长期交互中积累的知识库,核心在于将历史转化为决策依据。其本质包括Raw Ledger、Views和Policy三部分,形成一个闭环系统。非参数化Memory更易落地,但需逼近参数化方案的效果上限。时序记忆、技能固化与潜层融合是关键,确保记忆的可执行性、可治理性与可观测性,提升Agent的个性化与长程任务表现。

登录后可查看文章图片

cursor技术:Better MoE model inference with warp decode

摘要

Warp decode是一种新型MoE推理方法,将并行性从专家转向输出值,显著提升性能和精度。通过消除传统路径中的五个“簿记”步骤,减少了中间缓冲区和同步点,使计算更高效。测试显示,Blackwell GPU上的吞吐量提升1.84倍,输出精度接近FP32参考值的1.4倍。该方法特别适用于小批量解码,加速了Composer模型的研发和训练。

登录后可查看文章图片

uber技术:Under the Hood: Scaling Responsible AI at Uber

摘要

Uber构建了"负责任AI"计划,通过五大支柱实现AI治理:建立集中式模型目录实现全局可见性,集成特征归因技术提升模型可解释性,将治理流程嵌入开发周期早期,开展全员AI素养培训,并设计灵活机制确保新旧模型合规。这套体系让AI开发透明可控,既保障可靠性又不阻碍创新,为规模化AI应用打下坚实基础。

登录后可查看文章图片

lyft技术:Beyond A/B Testing: Using Surrogacy and Region-Splits to Measure Long-Term Effects in Marketplaces

摘要

Lyft通过两步骤方法评估资源分配决策的长期市场效应。第一步,利用残差化回归模型分析政策变化对短期负面用户体验的影响,并通过切换实验验证;第二步,采用双重稳健观测法将负面体验转化为未来行为预测,并通过用户分割实验校准。最后,结合直接和间接效应,通过区域分割实验验证整体长期效果,优化决策。

lyft技术:Predicting Rider Conversion in Sparse Data Environments with Bayesian Trees

摘要

Lyft面临乘客转化率预测的数据稀疏难题,传统模型易过拟合。为此,团队创新性地构建了贝叶斯树模型:通过分层树结构细分场景(如城市区域、时间段等),并利用高斯先验进行贝叶斯平滑——子节点参数受父节点约束,数据越少则越依赖父节点先验。该方法在稀疏场景下实现稳健预测,同时通过简单参数模型保障逻辑一致性(如强制历史转化率与当前概率单调相关),兼顾实时性与可解释性。

netflix技术:Smarter Live Streaming at Scale: Rolling Out VBR for All Netflix Live Events

摘要

Netflix将直播视频编码从固定码率(CBR)切换为动态码率(VBR),根据画面复杂度智能分配带宽:简单场景省流量,复杂场景保画质。实测显示WWE直播中VBR比CBR节省15%流量,卡顿减少5%。新方案需重构服务器负载算法——以标称码率为容量基准,避免低码率时段超载接入导致后续高码率场景过载。团队同步优化码率阶梯,通过微调低端流码率维持画质水准。未来将探索基于实时片段大小的自适应码率策略,进一步释放VBR潜力。

netflix技术:Scaling Global Storytelling: Modernizing Localization Analytics at Netflix

摘要

Netflix为应对300+百万用户、190+国家和50+语言的挑战,快速扩展了本地化团队,但技术债随之而来。为解决“谁制作了这个配音?”等复杂问题,团队聚焦于整合、标准化和信任,通过审计与整合手册、减少“非技术债”、投资核心构建块三大策略,优化数据分析流程。未来,将推进事件级分析,从资产级指标转向字幕行等细粒度事件,提升用户体验。

netflix技术:Synchronizing the Senses: Powering Multimodal Intelligence for Video Search

摘要

视频搜索面临多模态数据融合的复杂挑战,需整合人物识别、场景分析和对话解析等模型输出。Netflix通过分阶段的处理管道,实现了高效的时间线同步和大规模数据处理,确保搜索结果精准且实时。系统支持多种搜索模式和动态相似度计算,提升语义匹配的准确性。未来将推进自然语言搜索和自适应排序,进一步优化用户体验,助力创意团队高效挖掘关键片段。

meta技术:How Meta Used AI to Map Tribal Knowledge in Large-Scale Data Pipelines

摘要

AI编码助手在处理大规模代码库时,常因缺乏对代码上下文的理解而效率低下。通过构建预计算引擎,50多个AI代理系统性读取代码文件,生成59个简明上下文文件,涵盖4100多个文件和50多个非显而易见模式,显著提升AI代理的导航能力。该系统自动维护,定期验证文件路径并修复过时引用,减少40%的工具调用次数,将复杂工作流的研究时间从两天缩短至30分钟。

登录后可查看文章图片

The Anatomy of an Agent Harness

摘要

大模型的能力不仅取决于模型本身,更依赖于其基础设施——"代理套件"。它包括工具、内存、上下文管理、状态持久化等12个核心组件,共同将无状态的LLM转化为具备自主行为的智能体。随着模型能力的提升,套件设计趋向简化,但其作为管理和验证的核心作用不可或缺。

登录后可查看文章图片

12 Agentic Harness Patterns from Claude Code

摘要

Claude代码泄露揭示了12种代理应用设计模式,分为记忆与上下文、工作流与编排、工具与权限、自动化四大类。这些模式包括持久指令文件、分层记忆、探索-计划-行动循环、渐进工具扩展等,旨在提升代理的效率和安全性。这些设计模式为构建高效、可靠的代理应用提供了核心架构参考。

登录后可查看文章图片


‹ 2026-04-06 日报 2026-04-08 日报 ›

qrcode

关注公众号
接收推送