话题AIGC产品 › Qwen

AIGC产品:Qwen

关联话题: 通义千问

A Step-by-Step Guide to Creating a Custom Vision-Language Dataset for Fine-Tuning Qwen-2-VL with LLaMA-Factory

本文将指导如何为Qwen-2-VL视觉语言模型创建定制数据集,并使用LLaMA-Factory进行微调。首先,准备合同文档图片并生成问答对,利用GPT-4模型自动生成问题与答案。接着,将数据集上传至Hugging Face Hub,最后配置并运行微调脚本。该流程适用于文档视觉问答等任务,帮助构建专用模型,提升性能。

在DeepSeek阴影(或启发)下:OpenAI o1、Kimi 1.5、Qwen 2.5技术路线解读

大语言模型技术不断进步,OpenAI o1通过自我反思和错误修正提升推理能力,可能融合了CoT、PRM和MCTS;Kimi 1.5结合长上下文CoT和强化学习,展现了深入推理的潜力;Qwen 2.5则注重数据质量和多规模模型,配合离线与在线强化学习进一步提升性能。这些模型在推理、长文本处理和强化学习方面各有创新,推动了大语言模型的发展。

基于 Qwen2.5-14B + Elasticsearch RAG 的大数据知识库智能问答系统

AI时代,企业和个人亟需从海量私有文档中快速提取精准信息。本文介绍了一款基于Qwen2.5-14B大模型与Elasticsearch构建的智能问答系统,结合向量检索、检索增强技术(RAG)和生成式AI,能高效处理多格式文档并提供准确回答。系统实测效果显著,适用于技术文档等复杂场景,展现了AI在知识管理中的强大潜力。

单卡 RTX 4090 用 unsloth 和医学数据微调 DeepSeek-R1-Distill-Qwen-14B

本文详细介绍了如何通过modelscope和huggingface-cli下载模型和数据集,并展示了如何在Docker环境中构建和启动容器进行模型训练。文章还涉及了微调前的推理过程、数据集和训练参数的设置,以及训练过程中的日志和资源使用情况。最后,提到了一些常见问题的解决方法,如环境变量设置和wandb的配置。

LangChain+通义千问+AnalyticDB向量引擎保姆级教程

本文以构建AIGC落地应用ChatBot和构建AI Agent为例,从代码级别详细分享AI框架LangChain、阿里云通义大模型和AnalyticDB向量引擎的开发经验和最佳实践,给大家快速落地AIGC应用提供参考。

  • «
  • 1
  • »

首页 - Wiki
Copyright © 2011-2025 iteam. Current version is 2.142.1. UTC+08:00, 2025-04-04 00:59
浙ICP备14020137号-1 $访客地图$