知鸦日报2025-12-12

2025-12-11 16:30:00 ~ 2025-12-12 16:30:00

제품

58同城产品:设计师的专属 “超级助理” 用AI解锁高效设计新路径

摘要

AI正成为设计师的超级助理,助力高效完成设计全流程。以乐业贷活动海报为例,AI从需求拆解到创意发散,再到元素生成和细节优化,大幅提升效率。设计师得以从重复劳动中解放,专注创意决策和情感适配。AI并非替代设计师,而是让设计回归核心价值,用创意传递情感,契合商业需求。拥抱AI,让设计师轻装上阵,稳稳拿捏设计需求。

登录后可查看文章图片

기술

爱奇艺技术:大星辰-广告素材智能分析与生成平台

摘要

广告行业竞争加剧,创意素材质量与效率成关键。通过AIGC技术,构建智能化素材生成体系,解决传统制作中的质量效率难兼顾、创意同质化、长尾场景覆盖不足等痛点。升级“星辰”平台为“大星辰”,实现文案、图像、视频素材的自动化与个性化生产,提升用户体验与广告收入。未来将持续优化素材生成流程,拓展创意边界,助力业务增长。

登录后可查看文章图片

搜狐技术:用 DeepSeek 打造智能虚拟主播:从零到上线全流程

摘要

本文将带你从零开始,结合DeepSeek模型,搭建一个智能虚拟主播系统。通过安装VTube Studio、Python环境和虚拟声卡驱动,配置虚拟形象并实现文本转语音。调用AI模型API赋予虚拟主播智能回复能力,最终利用OBS Studio进行直播推流。系统适用于直播带货、在线教育等多场景,未来可扩展实时翻译、多角色互动等功能,提升虚拟主播的沉浸感和互动性。

再也不担心论文!Nano-Banana Pro 论文绘图最全教程发布

摘要

本教程提供了一套高效的学术插图绘制方法,将复杂任务拆解为逻辑构建与视觉渲染两个环节。通过LLM的逻辑推理能力指导绘图模型,生成符合顶刊标准的学术插图。教程详细介绍了从逻辑构建到绘图渲染的具体步骤,并提供了进阶技巧和注意事项,帮助用户从“可用”到“完美”地完成科研插图绘制。

登录后可查看文章图片

哔哩哔哩技术:从JS云函数到MCP:打造跨平台AI Agent工具的工程实践

摘要

本文分享了构建AI工具生态的实践路径,从JS云函数平台到跨平台Agent能力的演进。通过Flowise、MCP协议等技术,实现了工具的统一定义、执行和调用,解决了AI应用中工具重复开发、接口不友好等问题。最终,开发者只需编写JS函数,即可为AI赋予新能力,推动了AI工具生态的标准化和共享。

登录后可查看文章图片

多模态大模型结合强化学习的模式探讨

摘要

多模态大模型与强化学习的融合正掀起AI新浪潮!从视觉推理到复杂数学计算,通过规则奖励微调、分阶段训练等创新方法,模型在精准定位、逻辑推理等任务上表现惊艳。GRPO等策略让模型学会"思考",而自适应推理、分层评估等方向将推动技术更智能、更可靠。这场"看懂世界+做出决策"的智能革命,正在重新定义AI的边界。

登录后可查看文章图片

七猫技术:基于飞书 Aily 搭建 sls日志分析助手

摘要

日志分析繁琐低效,【sls日志分析助手】结合飞书aily,AI助力快速决策。飞书aily为企业提供智能体开发平台,具备深度检索、任务规划等核心优势。通过自定义智能体和工作流应用,轻松搭建SLS分析工具,实现日志高效处理。未来将与OnCall告警、Codeup代码仓库联动,拓展应用场景,提升办公效率。

登录后可查看文章图片

pinterest技术:LLM-Powered Relevance Assessment for Pinterest Search

摘要

uber技术:From Batch to Streaming: Accelerating Data Freshness in Uber’s Data Lake

摘要

Uber 重新设计了数据湖的摄取系统 IngestionNext,基于 Apache Flink 实现了流式处理,将数据新鲜度从小时级提升至分钟级,同时降低了计算成本。该系统解决了小文件生成、分区倾斜等问题,并通过行组合并优化了 Parquet 文件的压缩效率。IngestionNext 还增强了容错性和自动化管理,确保在故障时数据不丢失。未来,Uber 计划进一步扩展实时数据处理能力,以支持端到端的实时洞察和分析。

uber技术:Blazing Fast OLAP on Uber’s Inventory and Catalog Data with Apache Pinot™

摘要

Uber Eats采用Apache Pinot™处理海量商品数据,支持实时搜索和低延迟分析。核心实体为“产品”和“商品”,通过Kafka实时更新数据,Pinot提供快速查询和聚合功能。优化了非拉丁文本搜索,引入UUID哈希函数减少内存占用,并升级Java运行时提升性能。通过小段合并任务,显著降低查询延迟和表大小,支持无限保留用例。

AI+BI的数据智能问答探索与实践

摘要

光大银行推出“问数”智能分析工具,融合AI大模型与BI可视化技术,实现对话式数据问答。该工具采用Text2DSL技术路线,支持用户对已有报表数据指标的问答场景,通过知识召回、提示词工程、DSL拼接和结果整理四大核心环节,提升数据分析效率与用户体验。问答准确率优化策略包括领域微调训练、多阶段重排序、交互式歧义消除和大模型幻觉识别机制,确保查询精准性。“问数”工具已服务2600余名用户,未来将持续拓展数据范围与技术适配能力,助力银行数据驱动增长。

登录后可查看文章图片

滴滴技术:AI 在泛前端领域的思考和实践-上篇

摘要

AI正重塑泛前端领域:图形界面(GUI)向自然语言交互(LUI)迁移,企业服务模式从网页转向API交付。程序员需从代码实现转向创新思考,通过提示词工程、AI Agent等新技术提升竞争力。前端架构需适配无页面化趋势,核心壁垒在于性能优化与体验设计。抓住AI浪潮的关键是升级思维模式,将技术积累转化为智能交互设计优势。(139字)

登录后可查看文章图片

阿里巴巴技术:破解集合价值建模与实时推理难题:生成式召回大模型的工业级落地实践 | 搜索广告AI大模型创新实践

摘要

阿里妈妈搜索广告团队创新推出GFlowGR、NEZHA和VALUE三大技术,解决生成式召回中的价值差异化建模、实时推理延迟和语义质量平衡难题。GFlowGR通过GFlowNet框架实现商品价值精准度量,NEZHA采用轻量解码架构达成毫秒级响应,VALUE则结合加权Trie树兼顾语义与商业价值。这些技术已在阿里妈妈搜索广告主场景全量上线,带来大盘营收显著提升8%。

登录后可查看文章图片

网页大包数据和推送数据性能优化建议

摘要

为提升行情数据安全性,protobuf结合加密二进制传输成为优选。相比json,protobuf在包大小、反爬、安全性及性能上优势明显,尤其适合大包传输。虽开发复杂度增加,但通过避免长随机字符串等优化,可进一步提升效率。实际测试表明,protobuf在行情推送中表现优异,性价比较高。

登录后可查看文章图片

小红书技术:大模型训练的高效内存解决方案:流水线感知的细粒度激活卸载,实现显存开销与吞吐性能的联合最优

摘要

大语言模型训练中,激活值显存开销随序列长度二次方增长,成为核心瓶颈。细粒度激活卸载方案通过模块级卸载、计算-卸载重叠、全场景兼容设计,优化内存与性能平衡。实验显示,该方案在DeepSeek-V3等模型上以1%-2%吞吐损失换取10%-35%内存收益,或保证极致内存收益同时提升7%-10%吞吐性能,为千亿级模型、长序列训练提供高效内存解决方案。

登录后可查看文章图片

高德技术:高德AI研发工作流实践解析:ACoder平台实现研发效率5-20倍提升

摘要

ACoder平台通过多模型协作,解决了AI Coding在垂域知识传递、研发全链路提效及架构腐化等核心挑战。其DeepDiscovery技术增强了大模型对大规模工程的理解能力,实现了代码生成的高效与精准。平台在鸿蒙开发中提效显著,推动研发模式向AI驱动转型,提升了代码理解与生成的协同效率。

登录后可查看文章图片

阿里巴巴技术:阿里云 Tair 联手 SGLang 共建 HiCache,构建面向“智能体式推理”的缓存新范式

摘要

大型语言模型推理中,KVCache机制通过缓存历史Key-Value对提升效率,但在智能体推理场景下面临状态膨胀、跨轮次持久化缺失和多任务缓存孤立等挑战。阿里云Tair KVCache团队与合作伙伴构建了多级KVCache Offloading和全局共享方案,显著提升了缓存命中率和推理性能。SGLang HiCache技术通过分层缓存管理,突破了显存容量限制,实现了高效的KVCache卸载与预取,为长上下文和高并发推理提供了坚实基础。

登录后可查看文章图片

阿里巴巴技术:淘宝搜索算法:推理范式下生成式检索应用

摘要

大语言模型在电商领域的应用展现了显著优势,通过构建个性化生成式推理模型,深入分析用户属性、搜索词和行为序列,精准推断用户意图并生成商品推荐。优化方案从语义ID、PreSFT和SFT三阶段入手,提升模型表现。实验结果显示,成交笔数和金额均有增长,验证了生成式召回范式的潜力。未来将探索双LLM架构和RL技术,进一步提升模型能力。

登录后可查看文章图片


‹ 2025-12-11 日报 2025-12-13 日报 ›

qrcode

关注公众号
接收推送