话题AIGC产品 › DeepSeek

AIGC产品:DeepSeek

关联话题: 深度求索

DeepSeek(深度求索)是一家专注实现AGI(通用人工智能)的中国科技公司,成立于2023年,总部位于杭州。

从DeepSeek到Manus:如何实现本地LLM微调+联网开发?

本文深入探讨了AI大模型在本地微调和联网功能开发中的技术细节与应用场景。通过LLaMA-Factory框架,展示了如何将通用大模型微调为特定领域专家,并结合实际业务场景,如APK病毒检测、网址安全检测等,探索了AI在垂直领域的应用潜力。未来,AI技术将更加注重垂直领域的深耕与多模态应用的理性选择,推动技术与业务的深度融合。

从零开始的DeepSeek微调训练实战(SFT)

本文介绍了如何使用unsloth框架对DeepSeek R1 Distill 7B模型进行高效微调,特别是针对医疗推理数据集的微调实验。通过最小可行性实验,初步验证了微调的效果,并逐步扩展到完整数据集进行大规模微调。微调后的模型在回答医学问题时表现更加规范,但仍需进一步优化。最终,模型权重被合并保存,为后续应用打下基础。

AI 世界生存手册(二):从LR到DeepSeek,模型慢慢变大了,也变强了

大模型发展历程中,从早期的Word2Vec、ELMo到BERT、GPT系列,模型逐渐增大并展现出更强的上下文理解能力。GPT通过预训练和微调,逐步引入Zero-shot和Few-shot学习,最终通过RLHF等技术实现与人类意图的对齐。多模态模型如ViT和Gemini进一步扩展了模型处理文本、图像等多元数据的能力,推动AI向通用智能迈进。

提升自然语言转换为 SQL 查询(NL2SQL)准确度的探索-- LLaMA-Factory 蒸馏 DeepSeek 模型的方法介绍

探索通过模型蒸馏提升NL2SQL准确度,采用DeepSeek-R1-Distill-Qwen-7B模型在Spider数据集上进行训练和蒸馏,对比满血版DeepSeek模型,发现蒸馏模型在特定语言环境下表现更优。本地蒸馏技术可行,未来可通过更大显存环境和建设元数据知识库进一步提升准确度。

AI 世界生存手册(一):从LR到DeepSeek,模型慢慢变大了,也变强了

大模型算法的发展历程,从传统机器学习到深度学习,最终走向预训练模型。机器学习通过特征工程和模型选择解决线性问题,深度学习通过神经网络处理非线性问题,而大模型则通过预训练和微调实现通用智能。算法演进的关键在于特征提取和模型优化,最终目标是实现高效、可迁移的智能系统。

DeepSeek高手进阶指南:从 A 到 Z 的实用应用全收录

DeepSeek V3/R1系列模型在游戏开发、情感陪伴、赛博算命、创意产出、办公写作和商业应用等多个领域展现出强大能力。它不仅能辅助游戏攻略、开发小游戏,还能进行情感咨询、原创角色创作,甚至参与塔罗牌占卜和传统命理分析。在创意产出方面,DeepSeek助力音乐创作、视图生成和绘本制作。办公写作中,它简化公文撰写和教学辅助。商业领域,DeepSeek提供投资建议、自媒体运营和电商辅助,展现了AI技术在实际应用中的广泛潜力。

万字长文解构DeepSeek V1/V2/V3/R1进化史:从算法革命到推理涌现!

DeepSeek系列模型通过多版本迭代不断提升性能。V1优化了预训练和对齐策略,V2引入MoE架构和MLA,显著提升效率,V3进一步扩展参数和数据,优化训练成本。R1系列通过强化学习增强推理能力,并探索小模型蒸馏。整体展示了从基础到高效的持续创新,为开源大模型发展提供了重要参考。

使用A10单卡24G复现DeepSeek R1强化学习过程

DeepSeek模型训练过程展示了其核心强化学习算法DeepSeek-R1-Zero的应用。通过监督微调和强化学习相结合,模型逐步提升了推理能力,解决了语言混合和可读性问题。训练中使用了多种奖励函数,确保输出格式和内容的准确性。实验表明,微调后模型在格式和答案上均表现优异,验证了强化学习在模型优化中的有效性。

细致扒一下DeepSeek-R1论文到底讲了些什么

DeepSeek-R1通过大规模强化学习提升模型推理能力,无需依赖大量人工标注数据。其训练过程采用GRPO算法和规则奖励系统,优化模型性能。冷启动阶段引入少量高质量数据,进一步提升模型表现。实验显示,蒸馏技术能显著提升小模型推理能力,而纯RL训练则需更多计算资源。未来工作将探索更高效的训练方法和模型优化路径。

DeepSeek R1范式复现笔记

本文探讨了DeepSeek R1系列技术的复现与优化,重点分析了多个开源项目在数学和逻辑题领域的应用。通过实验验证,强化学习在提升模型推理能力方面效果显著,但小模型在复杂任务上表现有限。未来需优化RL框架,提升多机训练效率,并确保思维链质量不退化,以推动长思考模型在实际业务中的应用。

从大模型性能优化到DeepSeek部署

本文探讨了优化本地部署大模型性能的方法,重点介绍了提升吞吐量和响应时间的关键技术。通过CPU与GPU分离设计、Paged Attention解决显存碎片、Radix Attention减少重复计算、Chunked Prefill避免请求卡顿、多卡推理加速、预测解码等技术,显著提高了大模型推理效率。最后分享了Deepseek-R1模型的高效部署步骤。

刚刚,DeepSeek官方发布R1模型推荐设置,这才是正确用法

DeepSeek近日更新了X账号,推荐了DeepSeek-R1的部署设置,强调官方版本与开源模型一致。建议用户不使用系统提示词,温度参数设为0.6,并提供搜索和文件上传的官方提示词模板。此外,指南还建议强制模型以""开头,避免绕过思考模式。这次更新虽仅修改了README.md文件,但仍引发广泛关注和好评。

单卡4090微调DeepSeek-R1-32B

在24G显存的单卡RTX 4090上,使用unsloth和lora量化微调技术,成功对62G的deepseek-ai/DeepSeek-R1-Distill-Qwen-32B模型进行全量微调。训练数据为24772条,共9288步,耗时28小时28分37秒。优化技术显著减少了显存占用,提升了训练效率。

单卡 RTX 4090 用 unsloth 和医学数据微调 DeepSeek-R1-Distill-Qwen-14B

本文详细介绍了如何通过modelscope和huggingface-cli下载模型和数据集,并展示了如何在Docker环境中构建和启动容器进行模型训练。文章还涉及了微调前的推理过程、数据集和训练参数的设置,以及训练过程中的日志和资源使用情况。最后,提到了一些常见问题的解决方法,如环境变量设置和wandb的配置。

万字赏析 DeepSeek 创造之美:DeepSeek R1 是怎样炼成的?

DeepSeek R1 的发布标志着推理模型的重大突破,通过纯强化学习和高质量推理数据,模型自主提升推理能力。R1 不仅解决了行业难题,还开源了技术细节,推动了全球 AI 社区的发展。其创新机制和高效训练方法展示了模型自我优化的潜力,为未来 AI 模型的演进提供了新思路。

From Weak to Strong——OpenAI和DeepSeek基于强化学习的大模型训练微调技术解析

基于强化学习的大模型训练微调技术正推动AI推理能力的显著提升。OpenAI和DeepSeek通过模仿人类慢思考过程,结合RLHF、DPO等方法,优化模型策略与奖励设计,增强复杂问题解决能力。未来,自我训练、高级推理与安全性的结合将进一步突破技术边界,推动AI向AGI迈进。

Home - Wiki
Copyright © 2011-2025 iteam. Current version is 2.142.1. UTC+08:00, 2025-03-12 12:38
浙ICP备14020137号-1 $Map of visitor$