AI产品:DeepSeek
DeepSeek(深度求索)是一家专注实现AGI(通用人工智能)的中国科技公司,成立于2023年,总部位于杭州。
当测试遇见 AI:用 Streamlit+AutoGen+Deepseek 构建智能用例生成器
测试用例编写耗时低效?AI来破局!传统手工方式面临三大痛点:效率低(百条用例耗时占比高)、覆盖不全(35%缺陷源于漏测)、维护难(需求变更引发大量返工)。基于Streamlit+AutoGen+Deepseek的技术方案实现秒级生成,自动补全92%边界场景,格式准确率98%。密码修改功能实测显示,用例生成效率提升6.6倍,需求覆盖率从65%跃至92%。AI正让测试工程师从重复劳动中解放,专注质量体系设计。
大模型推理框架RTP-LLM对DeepSeek-V3的优化实践
DeepSeek-V3在多个评测中表现优异,成为热门开源大模型。团队通过优化RTP-LLM推理引擎,提升了Prefill和Decode阶段的性能,分别达到42.6K和14.7K TPS。测试在阿里云H800 RoCE环境下进行,采用PD分离和分布式EP架构。未来将优化算子性能、EPLB负载均衡及MicroBatch方案,以应对更长序列任务和异构计算卡挑战。
DeepSeek 正当红,聊聊大模型应用的四大关键要素和未来
大模型应用正迎来爆发期,DeepSeek R1的发布展示了其强大的逻辑能力和低成本优势,推动各行业快速接入。2025年或成为技术变革的临界点,大模型在医疗、投资等专业领域的应用价值凸显。成功应用大模型需结合专业知识、知识库、工程架构和交互设计,未来还需探索更强大的算法和数据来源,以推动人工智能迈向新高度。
MNN LLM:让你手机本地也能跑 DeepSeek R1 还能支持多模态
MNN LLM是一款开源工具,支持本地部署、移动端运行及多模态处理。通过模型量化与硬件优化,显著提升了推理速度与稳定性,解决了下载困难。支持Android、iOS和桌面端,用户可轻松体验大模型功能,实现“自己动手,丰衣足食”。优化了推理速度、多模态处理和下载体验,提供丰富的模型支持列表。
DeepSeek 在家宽投诉场景中的创新应用
DeepSeek大模型在家宽投诉处理中展现了强大的智能化能力,通过意图理解、多模态交互和知识问答,显著提升了运维效率。其核心在于精准识别用户意图、快速定位故障并推荐解决方案,结合知识图谱和大模型,实现了故障处理的自动化和智能化。未来,通过持续优化用户体验和大小模型融合,家宽网络的智能化水平有望进一步提升,带来更高效、个性化的服务体验。
三问一图万字拆解DeepSeek-R1:训练之道、实力之源与市场之变
DeepSeek-R1通过强化学习和蒸馏技术,显著提升了模型的推理能力,并在低成本下实现了高性能。其训练过程包括冷启动、大规模RL和迭代微调,模型在推理任务中展现出自主解题能力。DeepSeek-R1的出现不仅降低了AI应用门槛,还推动了行业技术路线的多元化,重塑了市场对高性能AI的价格预期。
DeepSeek 赋能自智网络高阶演进评测报告(三)
DeepSeek V3/R1凭借高效创新与低成本优势,成为智能化转型焦点。亚信科技通过AISWare AN Evo与DeepSeek全栈适配,开展技术评测,验证其在自智网络中的应用价值。报告第三期聚焦IP网配置生成、一线装维服务、感知诊断分析和无线投诉处理四大场景,展示DeepSeek在意图识别、语义解析、知识检索等方面的表现,虽响应速度有待提升,但整体展现强大技术潜力。
DeepSeek 赋能自智网络高阶演进评测报告(二)
DeepSeek V3/R1在自智网络领域展现出高效创新与低成本优势,亚信科技通过AISWare AN Evo与其全栈适配,验证了其技术潜力。测试涵盖业务编排、数据查询、拓扑生成及故障根因分析四大场景,结果显示DeepSeek在语义解析、推理能力等方面表现优异,尤其在知识检索和文本生成上更为突出,尽管响应速度有待优化,但其在智能化转型中的技术支撑潜力显著。
Spring AI、DeepSeek 与 MCP:对话驱动的接口查询新范式
随着人工智能技术的进步,传统的静态接口调用逐渐被智能、动态的方式取代。Spring AI、DeepSeek和MCP的结合,为接口查询带来了新的可能性。通过一个实际案例,展示了如何利用对话驱动的方式实现接口查询。Spring AI简化了AI应用开发,DeepSeek提供了强大的语义理解能力,MCP则标准化了大语言模型与外部工具的交互。这种对话驱动的方式,提升了接口调用的灵活性和智能化水平。
DeepSeek 赋能自智网络高阶演进评测报告(一)
DeepSeek V3/R1凭借高效创新和低成本优势,成为智能化转型焦点。亚信科技通过AISWare AN Evo与DeepSeek全栈适配,开展技术评测,验证其在自智网络中的应用价值。评测涵盖意图理解、自主规划等维度,DeepSeek表现优异,但响应速度有待提升。报告分为四期,本期重点介绍测试方案,为自智网络高阶演进提供技术支撑。
DeepSeek开源库DeepGEMM 性能测评
DeepGEMM是一款高效FP8通用矩阵乘法库,支持NVIDIA Hopper张量核心,通过CUDA核心两级积累解决FP8精度问题。其设计简洁,核心内核仅约300行代码,性能在各种矩阵形状下媲美或超越专家调优库。测试显示,DeepGEMM在H20和H800上表现优异,尤其在处理大矩阵时优于Cutlass和Triton,适合大规模计算任务。总体而言,DeepGEMM在计算性能和兼容性上表现出色,是深度学习中的高效工具。
DeepSeek R1本地训练全流程实操指南,手把手教你打通其“任督二脉”
DeepSeek R1本地训练常因适配性问题受阻,本文手把手教你打通“任督二脉”。从环境搭建到训练避坑,详细解析如何在8卡A100上跑通Qwen-14B的复现,分享实用镜像与踩坑经验。教你改造代码适配自定义数据,轻松开启训练探索之旅。
DeepSeek MoE -- An Innovative MoE Architecture
DeepSeek MoE架构通过创新提升了模型效率,采用“更多更小的专家”和“知识共享专家”策略。增加了专家数量,使每个专家更专业化,同时引入共享专家减少冗余知识。这些改进显著降低了计算负载,提高了模型性能,展现了DeepSeek在模型架构上的独特创新和前瞻性。
一文了解DeepSeek及应用场景
本文详细介绍了DeepSeek大模型的发展历程、技术路线及性能优势。DeepSeek-V3和R1分别专注于通用任务和复杂推理,具有低成本、高性能特点,尤其在数学、代码等领域表现突出。其技术核心包括MoE、MLA架构及多步token预测,显著提升了推理效率。DeepSeek的开源策略和低成本API调用进一步推动了AI大模型行业的竞争与创新。
DeepSeek开源通信库DeepEP介绍
DeepSeek推出的DeepEP通信库专为大规模MoE模型优化,支持高效All-to-All通信,结合NVSHMEM、GDRCopy和IBGDA技术,显著提升训练和推理效率。DeepEP通过优化Prefill和Decoding阶段的计算Kernel,降低通信延迟,实现GPU资源的高效利用。开源周期间,DeepSeek还公开了核心代码库,推动AI技术发展。
在DeepSeek阴影(或启发)下:OpenAI o1、Kimi 1.5、Qwen 2.5技术路线解读
大语言模型技术不断进步,OpenAI o1通过自我反思和错误修正提升推理能力,可能融合了CoT、PRM和MCTS;Kimi 1.5结合长上下文CoT和强化学习,展现了深入推理的潜力;Qwen 2.5则注重数据质量和多规模模型,配合离线与在线强化学习进一步提升性能。这些模型在推理、长文本处理和强化学习方面各有创新,推动了大语言模型的发展。