AI产品:DeepSeek
DeepSeek(深度求索)是一家专注实现AGI(通用人工智能)的中国科技公司,成立于2023年,总部位于杭州。
用 DeepSeek 打造智能虚拟主播:从零到上线全流程
本文将带你从零开始,结合DeepSeek模型,搭建一个智能虚拟主播系统。通过安装VTube Studio、Python环境和虚拟声卡驱动,配置虚拟形象并实现文本转语音。调用AI模型API赋予虚拟主播智能回复能力,最终利用OBS Studio进行直播推流。系统适用于直播带货、在线教育等多场景,未来可扩展实时翻译、多角色互动等功能,提升虚拟主播的沉浸感和互动性。
大模型训练的高效内存解决方案:流水线感知的细粒度激活卸载,实现显存开销与吞吐性能的联合最优
大语言模型训练中,激活值显存开销随序列长度二次方增长,成为核心瓶颈。细粒度激活卸载方案通过模块级卸载、计算-卸载重叠、全场景兼容设计,优化内存与性能平衡。实验显示,该方案在DeepSeek-V3等模型上以1%-2%吞吐损失换取10%-35%内存收益,或保证极致内存收益同时提升7%-10%吞吐性能,为千亿级模型、长序列训练提供高效内存解决方案。
非专业也能看懂的AI大模型工作原理!
大语言模型将用户提问转换为矩阵,通过分词和嵌入将文本转为数字。Transformer架构中的自注意力机制让模型理解上下文,多头注意力则多角度捕捉信息。输出时,模型通过线性层和Softmax将隐藏状态转换为词汇概率,自回归生成完整回答。位置编码确保模型理解词序,长文本外推则扩展模型处理能力。实践中,优化上下文长度和多Agent协同可提升效率。
突破显存瓶颈:基于 DeepSeek-V3.2-Exp 的 Latent Cache 卸载预取方案设计与模拟验证
DeepSeek-V3.2-Exp在长上下文推理中面临显存限制,导致Decode阶段吞吐受限。百度百舸AIAK团队提出ESS方案,通过将Latent Cache卸载至CPU内存,结合Offload-Prefetch机制,显著提升吞吐并降低成本。ESS兼容现有优化策略,通过高效数据传输和缓存管理,突破显存瓶颈,尤其在超长上下文场景下表现优异,为大规模模型推理提供高效解决方案。
达观IDP与DeepSeek-OCR深度集成:视觉压缩+语义理解,重构智能文档处理架构
智能文档处理正经历从线性流程到认知图谱的变革。传统OCR存在模态断层、效率瓶颈和认知盲区,DeepSeek-OCR通过跨模态对齐与联合表征学习,构建三维认知空间,实现视觉与语义的深度融合。达观IDP集成DeepSeek-OCR,重构多模态文档理解引擎,提升处理效率和认知深度,标志着文档智能3.0时代的开启,为行业数字化转型提供新基础设施。
DeepSeek鬼才创举,OCR是啥?腾讯是怎么做的?
DeepSeek最新发布的3B规模视觉压缩OCR模型,通过DeepEncoder和DeepSeek3B-MoE解码器,实现了长文本的高效压缩与解码,10倍压缩下精度达97%。该模型支持多分辨率,显著减少计算资源需求,尤其在历史文档处理上展现巨大潜力。腾讯优图OCR大模型技术不断演进,从多阶段定制到多模态模型,提升文档解析精度与效率,助力行业数字化转型。
FUST 与 DeepSeek:构建智能问答系统的实践探索
智能问答系统搭建指南:利用知乎FUST框架与DeepSeek API,构建高性能、可扩展的问答平台。FUST框架基于Spring Boot 3.x,集成主流组件,支持灵活扩展;DeepSeek API提供通用对话和代码生成能力。项目采用多模块微服务架构,实现关注点分离、代码复用和独立测试。涵盖环境准备、项目配置、数据模型设计、数据访问层、业务服务层、API集成与Web控制器层,并提供部署运行指南。
00后黑客落网!曾运营大型僵尸网络,频繁攻击腾讯游戏、DeepSeek、X平台
RapperBot僵尸网络被成功取缔,主谋Ethan Faulds被捕。该网络自2021年起活跃,通过DDoS攻击、勒索等手段获利,影响全球18,000名受害者。腾讯宙斯盾情报系统通过蜜罐和大模型技术高效监控和分析僵尸网络样本,提升防御能力。建议加强设备安全、自动化灾备调度和定期演练,以应对DDoS威胁。僵尸网络不死,对抗不休,需持续提升防护水平。
LLM 系列(十一):从 DeepSeek UE8M0 来回顾精度革命
DeepSeek V3.1 引入了全新的 UE8M0 格式,专为下一代国产芯片设计,采用 8 位无符号指数和 0 位尾数,极致追求动态范围,将精度外置于共享缩放因子。这一创新通过“微缩放”技术,提升硬件计算效率,适应 AI 模型的极端数值分布。UE8M0 的推出不仅是技术突破,更是国产 AI 生态独立发展的战略布局,标志着从底层数值格式构建自主路径的雄心。
DeepSeek 流失的用户,超一半去了百度?这份 AI 产品报告还有哪些「反常识」趋势
GPT-5的规模定律失效,AI发展从“造火箭”转向“修汽车”。全球AI工具流量趋稳,OpenAI独大,垂直赛道遇冷。国内AI插件化成主流,原生App增长停滞,网页端用户稀少。AI搜索和综合助手仍是核心需求,场景嵌入推动增长。AI行业需调整期待,聚焦实用性和用户体验。
企业级基于DeepSeek模型的RAG系统,保姆教程来了!
Datawhale开源项目happy-llm更新了建筑文档智能RAG审查系统,帮助开发者理解知识引导检索在建筑文档审查中的应用。系统通过动态语义分块和生成式知识引导检索,提升了审查的准确性和效率。项目详细介绍了从LLM模块到文档预处理模块的实现步骤,并展示了如何通过智能化问询生成和知识引导检索来识别文档中的合规性问题。源码已开源,供开发者参考和扩展。
主流大模型架构深度对比,涵盖 Llama、Qwen、DeepSeek 等六大模型
本文对比了2025年主流大型语言模型(LLM)的架构演进,重点分析了DeepSeek V3、OLMo 2、Gemma 3、Llama 4、Qwen3等模型的技术创新。DeepSeek V3采用多头潜在注意力和专家混合提升效率;OLMo 2通过后归一化和QK-范数优化训练稳定性;Gemma 3引入滑动窗口注意力降低计算成本;Llama 4和Qwen3则通过稀疏模型设计提高推理效率。各模型在架构上的细微调整展现了LLM领域的持续优化与创新。
腾讯太极团队实现DeepSeek模型业内H20最高性能15800+ tokens/s
太极Angel-HCF团队通过PD分离、EP并行优化和多层MTP技术,将DeepSeek模型的推理性能提升至15800+ tokens/s。针对Prefill和Decode阶段的不同特性,团队采用差异化并行策略,优化KV Cache传输与负载均衡,并结合Hopper架构特性进行深度优化。此外,通过改进MTP采样方法和训练多层MTP权重,进一步提升了推理效率。
当测试遇见AI:用 Streamlit+AutoGen+Deepseek 构建智能用例生成器
软件测试领域,AI技术正革新传统模式。通过Streamlit、AutoGen和Deepseek的组合,智能用例生成器大幅提升效率与质量,从手工编写的线性流程转向智能并行模式,实现秒级生成、自动补全边界场景,维护零冲突协作。未来,AI将助力测试工程师转型为质量体系架构师,推动测试更智能、质量更可靠。
腾讯一念LLM新版本发布:硬刚核心调度,满血版DeepSeek推理吞吐提升48%
一念LLM 0.6.0版本发布,支持DeepSeek模型和分布式推理,采用流水线并行(PP)技术,跨机通讯量降低98.3%,吞吐达9084 tokens/s,比开源框架高48%。通过显存精细化管理,kv-cache可用显存增加137%,支持多batch并发执行,优化了GPU资源利用。未来将继续探索DP/EP和PD分离技术,进一步提升性能。
当测试遇见 AI:用 Streamlit+AutoGen+Deepseek 构建智能用例生成器
测试用例编写耗时低效?AI来破局!传统手工方式面临三大痛点:效率低(百条用例耗时占比高)、覆盖不全(35%缺陷源于漏测)、维护难(需求变更引发大量返工)。基于Streamlit+AutoGen+Deepseek的技术方案实现秒级生成,自动补全92%边界场景,格式准确率98%。密码修改功能实测显示,用例生成效率提升6.6倍,需求覆盖率从65%跃至92%。AI正让测试工程师从重复劳动中解放,专注质量体系设计。