话题AI产品 › DeepSeek

AI产品:DeepSeek

关联话题: 深度求索

DeepSeek(深度求索)是一家专注实现AGI(通用人工智能)的中国科技公司,成立于2023年,总部位于杭州。

FUST 与 DeepSeek:构建智能问答系统的实践探索

智能问答系统搭建指南:利用知乎FUST框架与DeepSeek API,构建高性能、可扩展的问答平台。FUST框架基于Spring Boot 3.x,集成主流组件,支持灵活扩展;DeepSeek API提供通用对话和代码生成能力。项目采用多模块微服务架构,实现关注点分离、代码复用和独立测试。涵盖环境准备、项目配置、数据模型设计、数据访问层、业务服务层、API集成与Web控制器层,并提供部署运行指南。

00后黑客落网!曾运营大型僵尸网络,频繁攻击腾讯游戏、DeepSeek、X平台

RapperBot僵尸网络被成功取缔,主谋Ethan Faulds被捕。该网络自2021年起活跃,通过DDoS攻击、勒索等手段获利,影响全球18,000名受害者。腾讯宙斯盾情报系统通过蜜罐和大模型技术高效监控和分析僵尸网络样本,提升防御能力。建议加强设备安全、自动化灾备调度和定期演练,以应对DDoS威胁。僵尸网络不死,对抗不休,需持续提升防护水平。

LLM 系列(十一):从 DeepSeek UE8M0 来回顾精度革命

DeepSeek V3.1 引入了全新的 UE8M0 格式,专为下一代国产芯片设计,采用 8 位无符号指数和 0 位尾数,极致追求动态范围,将精度外置于共享缩放因子。这一创新通过“微缩放”技术,提升硬件计算效率,适应 AI 模型的极端数值分布。UE8M0 的推出不仅是技术突破,更是国产 AI 生态独立发展的战略布局,标志着从底层数值格式构建自主路径的雄心。

DeepSeek 流失的用户,超一半去了百度?这份 AI 产品报告还有哪些「反常识」趋势

GPT-5的规模定律失效,AI发展从“造火箭”转向“修汽车”。全球AI工具流量趋稳,OpenAI独大,垂直赛道遇冷。国内AI插件化成主流,原生App增长停滞,网页端用户稀少。AI搜索和综合助手仍是核心需求,场景嵌入推动增长。AI行业需调整期待,聚焦实用性和用户体验。

企业级基于DeepSeek模型的RAG系统,保姆教程来了!

Datawhale开源项目happy-llm更新了建筑文档智能RAG审查系统,帮助开发者理解知识引导检索在建筑文档审查中的应用。系统通过动态语义分块和生成式知识引导检索,提升了审查的准确性和效率。项目详细介绍了从LLM模块到文档预处理模块的实现步骤,并展示了如何通过智能化问询生成和知识引导检索来识别文档中的合规性问题。源码已开源,供开发者参考和扩展。

主流大模型架构深度对比,涵盖 Llama、Qwen、DeepSeek 等六大模型

本文对比了2025年主流大型语言模型(LLM)的架构演进,重点分析了DeepSeek V3、OLMo 2、Gemma 3、Llama 4、Qwen3等模型的技术创新。DeepSeek V3采用多头潜在注意力和专家混合提升效率;OLMo 2通过后归一化和QK-范数优化训练稳定性;Gemma 3引入滑动窗口注意力降低计算成本;Llama 4和Qwen3则通过稀疏模型设计提高推理效率。各模型在架构上的细微调整展现了LLM领域的持续优化与创新。

腾讯太极团队实现DeepSeek模型业内H20最高性能15800+ tokens/s

太极Angel-HCF团队通过PD分离、EP并行优化和多层MTP技术,将DeepSeek模型的推理性能提升至15800+ tokens/s。针对Prefill和Decode阶段的不同特性,团队采用差异化并行策略,优化KV Cache传输与负载均衡,并结合Hopper架构特性进行深度优化。此外,通过改进MTP采样方法和训练多层MTP权重,进一步提升了推理效率。

当测试遇见AI:用 Streamlit+AutoGen+Deepseek 构建智能用例生成器

软件测试领域,AI技术正革新传统模式。通过Streamlit、AutoGen和Deepseek的组合,智能用例生成器大幅提升效率与质量,从手工编写的线性流程转向智能并行模式,实现秒级生成、自动补全边界场景,维护零冲突协作。未来,AI将助力测试工程师转型为质量体系架构师,推动测试更智能、质量更可靠。

腾讯一念LLM新版本发布:硬刚核心调度,满血版DeepSeek推理吞吐提升48%

一念LLM 0.6.0版本发布,支持DeepSeek模型和分布式推理,采用流水线并行(PP)技术,跨机通讯量降低98.3%,吞吐达9084 tokens/s,比开源框架高48%。通过显存精细化管理,kv-cache可用显存增加137%,支持多batch并发执行,优化了GPU资源利用。未来将继续探索DP/EP和PD分离技术,进一步提升性能。

当测试遇见 AI:用 Streamlit+AutoGen+Deepseek 构建智能用例生成器

测试用例编写耗时低效?AI来破局!传统手工方式面临三大痛点:效率低(百条用例耗时占比高)、覆盖不全(35%缺陷源于漏测)、维护难(需求变更引发大量返工)。基于Streamlit+AutoGen+Deepseek的技术方案实现秒级生成,自动补全92%边界场景,格式准确率98%。密码修改功能实测显示,用例生成效率提升6.6倍,需求覆盖率从65%跃至92%。AI正让测试工程师从重复劳动中解放,专注质量体系设计。

大模型推理框架RTP-LLM对DeepSeek-V3的优化实践

DeepSeek-V3在多个评测中表现优异,成为热门开源大模型。团队通过优化RTP-LLM推理引擎,提升了Prefill和Decode阶段的性能,分别达到42.6K和14.7K TPS。测试在阿里云H800 RoCE环境下进行,采用PD分离和分布式EP架构。未来将优化算子性能、EPLB负载均衡及MicroBatch方案,以应对更长序列任务和异构计算卡挑战。

DeepSeek 正当红,聊聊大模型应用的四大关键要素和未来

大模型应用正迎来爆发期,DeepSeek R1的发布展示了其强大的逻辑能力和低成本优势,推动各行业快速接入。2025年或成为技术变革的临界点,大模型在医疗、投资等专业领域的应用价值凸显。成功应用大模型需结合专业知识、知识库、工程架构和交互设计,未来还需探索更强大的算法和数据来源,以推动人工智能迈向新高度。

MNN LLM:让你手机本地也能跑 DeepSeek R1 还能支持多模态

MNN LLM是一款开源工具,支持本地部署、移动端运行及多模态处理。通过模型量化与硬件优化,显著提升了推理速度与稳定性,解决了下载困难。支持Android、iOS和桌面端,用户可轻松体验大模型功能,实现“自己动手,丰衣足食”。优化了推理速度、多模态处理和下载体验,提供丰富的模型支持列表。

DeepSeek 在家宽投诉场景中的创新应用

DeepSeek大模型在家宽投诉处理中展现了强大的智能化能力,通过意图理解、多模态交互和知识问答,显著提升了运维效率。其核心在于精准识别用户意图、快速定位故障并推荐解决方案,结合知识图谱和大模型,实现了故障处理的自动化和智能化。未来,通过持续优化用户体验和大小模型融合,家宽网络的智能化水平有望进一步提升,带来更高效、个性化的服务体验。

三问一图万字拆解DeepSeek-R1:训练之道、实力之源与市场之变

DeepSeek-R1通过强化学习和蒸馏技术,显著提升了模型的推理能力,并在低成本下实现了高性能。其训练过程包括冷启动、大规模RL和迭代微调,模型在推理任务中展现出自主解题能力。DeepSeek-R1的出现不仅降低了AI应用门槛,还推动了行业技术路线的多元化,重塑了市场对高性能AI的价格预期。

DeepSeek 赋能自智网络高阶演进评测报告(三)

DeepSeek V3/R1凭借高效创新与低成本优势,成为智能化转型焦点。亚信科技通过AISWare AN Evo与DeepSeek全栈适配,开展技术评测,验证其在自智网络中的应用价值。报告第三期聚焦IP网配置生成、一线装维服务、感知诊断分析和无线投诉处理四大场景,展示DeepSeek在意图识别、语义解析、知识检索等方面的表现,虽响应速度有待提升,但整体展现强大技术潜力。

首页 - Wiki
Copyright © 2011-2025 iteam. Current version is 2.146.0. UTC+08:00, 2025-09-25 01:26
浙ICP备14020137号-1 $访客地图$