公司:阿里巴巴
阿里巴巴集团创立于1999年,是中国大陆一家以提供互联网服务为主的综合企业集团,目前实行位于杭州,上海与北京的双总部制度。
阿里巴巴服务范围包括B2B贸易、网上零售、购物搜索引擎、第三方支付和云计算服务。集团的子公司包括阿里巴巴B2B、淘宝网、天猫、一淘网、阿里云计算、聚划算、全球速卖通、阿里巴巴国际交易市场、饿了么、飞猪、优酷、盒马鲜生、阿里影业、菜鸟网络、高德地图、Lazada、Daraz等。旗下的淘宝网和天猫在2012年销售额达到1.1兆人民币,2015年度商品交易总额已经超过三兆元人民币,是全球最大零售商。
至2012年九月底止的财政年度,以美国会计准则计算,阿里营业额按年增长74%至318.39亿元(港元‧下同),盈利急升80%至37.75亿元。2015年全年,阿里巴巴营收146.01亿美元,净利为74.94亿美元。2017年,根据阿里巴巴集团向美国证券交易委员会提交的IPO招股书显示,雅虎持有阿里巴巴集团22.6%股权、软银持阿里集团34.4%股份,另管理层、雇员及其他投资者持股比例合共约为43%,当中马云持阿里巴巴集团约8.9%、蔡崇信持股为3.6%。
2019年11月,阿里巴巴集团在在港交所二次上市。香港财经界把阿里巴巴、腾讯(港交所:700)、美团点评(港交所:3690)、小米(港交所:1810)四只中国大陆科技股的英文名称首个字母,合称“ATMX”股份。
2019年11月26日,阿里巴巴集团港股上市,总市值超4兆,登顶港股成为港股“新股王”。2020年8月,阿里巴巴集团港股总市值首次超过6万亿。
阿里巴巴拆份出去的蚂蚁集团上市前,网络金服整体遭遇到政府的强力监管,阿里巴巴同样受到影响,2021年4月10日,阿里巴巴集团涉垄断被中国市场监管总局罚款182.28亿元人民币。2023年三家中国最主要的金融机构,再联合开罚71亿元,不过也随着官方宣布最后整顿工作的完成,阿里巴巴股价开始反弹。
三问一图万字拆解DeepSeek-R1:训练之道、实力之源与市场之变
DeepSeek-R1通过强化学习和蒸馏技术,显著提升了模型的推理能力,并在低成本下实现了高性能。其训练过程包括冷启动、大规模RL和迭代微调,模型在推理任务中展现出自主解题能力。DeepSeek-R1的出现不仅降低了AI应用门槛,还推动了行业技术路线的多元化,重塑了市场对高性能AI的价格预期。
前端构建持久化缓存服务的设计与经验总结
2023年12月起,我负责前端构建持久化缓存服务的设计与开发,2024年3月和12月分别上线编译缓存和依赖缓存服务。通过缓存预检机制和迭代粒度的双级缓存机制,构建效率显著提升,编译缓存覆盖率达62.05%,编译性能提升18.37%。尽管部分缓存复用仍存在挑战,但整体优化效果显著,未来将持续推动技术升级。
手搓Manus?MCP 原理解析与MCP Client实践
MCP协议为AI系统提供安全、标准化的数据访问方式,采用客户端-服务器架构,支持本地和远程数据源访问。协议层负责消息封装和通信管理,传输层支持Stdio和HTTP+SSE通信方式。MCP客户端与服务端通过初始化、消息交换和终止三个阶段建立连接,支持请求-响应模式。实践展示了如何通过MCP实现AI工具调用和数据交互,提升AI的实用性和智能化。
基于AIGC技术的营销短视频生产方案及业务实践
淘宝内容AI团队通过AIGC技术,创新性地开发了三套短视频生产方案,包括看点剪辑、混剪视频和营销视频,旨在利用现有素材生成高质量短视频,提升用户体验和转化率。这些方案通过多模态大模型、智能剪辑和文案生成等技术,显著降低了制作成本和时间,满足了平台对短视频的庞大需求,推动了技术与业务的深度融合。
一文讲透MCP的原理及实践
MCP(Model Context Protocol)是AI与外部工具和数据交互的统一标准,旨在简化AI系统集成,提升可靠性和效率。通过客户端-服务器架构,MCP连接本地和远程资源,支持开发者快速构建强大AI应用。它不仅解决平台依赖问题,还提供更安全、灵活的工具调用机制,推动AI生态发展。MCP的核心在于通过结构化上下文信息,增强模型的实际问题解决能力,成为AI世界的“万能适配器”。
大模型推理框架RTP-LLM P-D分离之道:从思考到实战
RTP-LLM是阿里自研的大模型推理加速引擎,通过P-D分离技术优化大模型推理性能。Prefill阶段负责生成KVCache,Decode阶段利用KVCache生成后续Token。P-D分离让两者独立运行,避免相互干扰,提升时延稳定性。采用RDMA技术加速KVCache传输,减少通信开销。该方案已在多个场景上线,显著降低时延和资源占用,未来将继续优化长序列处理和分布式调度。
从零开始的 MCP 开发
AI开发者通过MCP协议开发插件,解决UI还原痛点。MCP作为AI与外部工具集成的标准,提供统一接口,提升开发效率。作者详细记录了从零开发MCP插件的学习路径,结合AI实现设计稿转React代码,优化开发流程。过程中遇到调试困难、任务衔接等问题,最终成功集成插件,提升开发体验。
RAG技术演进的四大核心命题
大模型技术迅猛发展,RAG(检索增强生成)成为优化用户体验的关键。通过提升检索与生成准确率,构建智能客服与辅助系统,解决数据垂直化、模型幻觉等挑战。未来,多模态检索、深度推理与评估体系优化将推动RAG技术迈向新高度,提供更智能、精准的服务体验。
淘宝质量保障之主动预警能力建设
淘宝特价版在业务质量保障中,构建了主动预警体系,涵盖活动配置、权益、开发配置、实验及舆情五大类。通过对接多平台数据源,制定动态预警规则,解决了权益库存、配置过期等难点。预警流程借鉴集团技术风险平台,结合业务实践,提升了预警准确性和处理效率。未来将继续优化预警能力,拓展场景,确保业务稳定与用户体验提升。
经典大模型提示词工程技术路线概述
本文探讨了几种经典提示词工程方法,包括CoT、Self-Consistency + CoT、Least-to-Most Prompting等,分析了其优势与局限。这些方法通过特定任务指令或上下文提示,激活大模型相关知识,实现与下游任务的无缝集成。文中还分享了Boosting of Thoughts、Tree of Thoughts等改进思路,展示了提示词工程在复杂推理任务中的潜力。最后,文章比较了AutoGPT与监督学习模型在在线决策任务中的性能,并提出了额外意见算法以提升决策能力。
大模型应用开发入门分享
大模型虽神秘,但使用门槛极低。核心参数为messages
和tools
,分别实现对话记忆和工具执行。RAG通过检索知识生成答案,ReAct模拟人类行为选择工具。提示词调优、增加调用次数和模型微调是优化手段。大模型虽强大,但业务效果还需结合实际需求,避免盲目依赖。
基于Flow-matching的扩散模型原理解读
扩散模型通过Flow Matching技术,将简单分布映射到复杂分布,实现高效采样。Flow Matching简化了训练和采样流程,提升了收敛效率,适用于图像生成和电商营销等场景。其核心在于构建向量场,通过神经网络参数化优化,最终实现复杂分布的生成。
AI Infra之模型显存管理分析
某客户部署DeepSeek-R1模型时,发现显存占用持续上升。经排查,显存增长源于PyTorch的缓存机制,而非KV Cache不足或NCCL问题。PyTorch通过Block和BlockPool管理显存,申请大块内存并预留缓存,导致显存占用增加但不会自动释放。建议调整max_split_size_mb
减少碎片化,或手动调用torch.cuda.empty_cache()
释放显存。
用自定义插件生成一篇图文并茂的文章
本文教你如何利用大模型和自定义插件生成图文并茂的文章。首先,通过大模型生成小红书风格的文章,并提取关键元素作为文生图插件的提示词。接着,结合自定义插件生成图片,并将文本与图片整合输出。最后,通过脚本处理实现图文混排效果,提升文章视觉体验。整个过程通过工作流节点逐步完成,操作简单高效。
文章和 PPT 配图有救了!SVG 绘图专家智能体大揭秘
本文揭秘了如何利用DeepSeek-V3-0324和Claude 3.5/3.7模型高效生成高质量图片,适用于文章和PPT配图。通过SVG代码绘图,结合精准提示词,实现原型图绘制、图片重绘及彩色报纸风等进阶应用。掌握这些技巧,能大幅提升绘图效率,定制个性化风格。
虚拟线程/有栈协程对于Java的意义
Java在JDK21中引入了虚拟线程,这是一种有栈协程的实现,能够以极低成本创建大量线程,提升资源利用率。虚拟线程支持阻塞IO操作而不阻塞内核线程,保留了同步编程的简洁性和调试友好性。尽管存在某些场景下可能“pin”住载体线程的局限性,虚拟线程仍是Java应对高并发场景的重要工具,降低了开发复杂度。