话题公司 › 阿里巴巴

公司:阿里巴巴

关联话题: Alibaba、阿里、闲鱼、1688

阿里巴巴集团创立于1999年,是中国大陆一家以提供互联网服务为主的综合企业集团,目前实行位于杭州,上海与北京的双总部制度。

阿里巴巴服务范围包括B2B贸易、网上零售、购物搜索引擎、第三方支付和云计算服务。集团的子公司包括阿里巴巴B2B、淘宝网、天猫、一淘网、阿里云计算、聚划算、全球速卖通、阿里巴巴国际交易市场、饿了么、飞猪、优酷、盒马鲜生、阿里影业、菜鸟网络、高德地图、Lazada、Daraz等。旗下的淘宝网和天猫在2012年销售额达到1.1兆人民币,2015年度商品交易总额已经超过三兆元人民币,是全球最大零售商。

至2012年九月底止的财政年度,以美国会计准则计算,阿里营业额按年增长74%至318.39亿元(港元‧下同),盈利急升80%至37.75亿元。2015年全年,阿里巴巴营收146.01亿美元,净利为74.94亿美元。2017年,根据阿里巴巴集团向美国证券交易委员会提交的IPO招股书显示,雅虎持有阿里巴巴集团22.6%股权、软银持阿里集团34.4%股份,另管理层、雇员及其他投资者持股比例合共约为43%,当中马云持阿里巴巴集团约8.9%、蔡崇信持股为3.6%。

2019年11月,阿里巴巴集团在在港交所二次上市。香港财经界把阿里巴巴、腾讯(港交所:700)、美团点评(港交所:3690)、小米(港交所:1810)四只中国大陆科技股的英文名称首个字母,合称“ATMX”股份。

2019年11月26日,阿里巴巴集团港股上市,总市值超4兆,登顶港股成为港股“新股王”。2020年8月,阿里巴巴集团港股总市值首次超过6万亿。

阿里巴巴拆份出去的蚂蚁集团上市前,网络金服整体遭遇到政府的强力监管,阿里巴巴同样受到影响,2021年4月10日,阿里巴巴集团涉垄断被中国市场监管总局罚款182.28亿元人民币。2023年三家中国最主要的金融机构,再联合开罚71亿元,不过也随着官方宣布最后整顿工作的完成,阿里巴巴股价开始反弹。

AI 基础知识从 0.4 到 0.5—— 计算机视觉之光 CNN

本文系统回顾了计算机视觉的发展历程,从早期手工特征到深度学习的崛起,重点解析了卷积神经网络(CNN)的原理与架构。通过数学公式与代码示例,详细探讨了卷积操作的本质及其在图像处理中的应用。文章还介绍了CNN如何解决参数爆炸与空间结构问题,并通过手写数字识别案例展示了CNN的实际应用。最后,列举了多种经典CNN模型及其在目标检测、人脸识别等领域的广泛应用。

如何实现 AI Agent 自主发现和使用 MCP 服务 —— Nacos MCP Router 部署最佳实践

AI Agent在使用MCP协议时面临服务选择复杂、Token消耗高及安全隐患等问题。Nacos社区推出Nacos MCP Router,通过智能路由和代理模式简化服务配置,优化Token使用,并提升安全性。Router支持协议转换,结合容器化部署,提供隔离运行环境,有效解决当前挑战,推动MCP生态发展。

微调之后还能做什么?大模型后训练全链路技术解析

后训练在预训练模型基础上,通过微调和对齐提升特定任务表现。随着模型规模扩大,后训练扩展律成为突破点,强化学习在推理能力提升中发挥关键作用。常见方法包括全量与部分微调、对齐技术及强化学习策略优化。推理阶段通过慢思考与CoT等策略优化模型表现。后训练结合SFT与RL,推动模型性能持续提升。

OOM排查之路:一次曲折的线上故障复盘

服务整合Paimon与RocksDB后,连续三次内存溢出(OOM)。首次OOM因Paimon表bucket数量过多,调整后解决。第二次OOM排查发现堆外内存泄漏,最终通过调低JVM堆内存、升级RPC框架等措施缓解。第三次OOM确认是RocksDB的JNI内存分配无法释放,最终改用Flink写Paimon解决。排查过程中使用了MAT、NMT、Arthas等工具。

RLHF技术实践:大语言与文生图模型的生成优化

基于人类反馈的强化学习(RLHF)通过引入人类偏好信号,优化大语言模型和文生图模型的生成效果。RLHF在解决图文不一致、肢体异常等挑战中展现显著优势,尤其在提升图像生成质量方面效果突出。DPO等算法简化了训练流程,但依赖数据质量和多样性。RLHF技术持续推动模型向更符合人类期望的方向演进。

如何用AI Coding和Claude Code提升开发效率?看我的全流程复盘

AI Coding工具在开发中提升效率显著,尤其Claude Code表现突出。清晰的需求描述和结构化Prompt是关键,避免一句话需求。合理划分AI任务边界,小步快跑并频繁提交代码。AI生成的代码需人工Review,确保质量。有效管理上下文,控制任务粒度,利用外部记忆和知识库。Claude Code的安装和使用简便,支持多任务协同,提升开发效率。

用系统架构思维,告别“意大利面条式”系统提示词

本文探讨了系统级提示词的设计问题,指出传统“规则清单”模式易导致规则冲突、维护困难和价值稀释。通过引入系统架构思维,提出从“规则管理者”转向“系统设计师”的思维范式转换。文章详细介绍了四层架构模型,并提供了六大编译原则,帮助将架构蓝图转化为高效提示词,提升AI系统的可预测性、可维护性和可扩展性,从而实现提示词工程的系统化与工程化。

NL2SQL:从自然语言到SQL的智能转换技术深度解析

NL2SQL技术将自然语言查询自动转换为SQL语句,帮助业务分析师无需编程即可高效处理数据。其核心挑战包括语义理解、模式映射和SQL生成,解决方案涉及模式链接、提示词工程、检索增强生成等。NL2SQL通过优化策略提升数据分析效率,尤其在复杂查询和多轮对话中表现突出,未来有望在更多场景中广泛应用。

3个月,200家客户,和大家聊聊企业AI应用(AI Agent)的落地实践

AI应用正从工具向智能伙伴进化,AI Agent与LLM的双引擎模式赋予其思考与执行能力。MCP服务将企业IT资产转化为AI可调用的标准化能力。构建AI应用有全新开发与存量改造两种路径,AI网关、MSE Nacos和函数计算FC在架构中发挥关键作用,提供统一管理、高效运行和安全保障,助力企业AI转型。

如何利用多模态大模型进行淘宝商品理解?

淘宝家装商品尺寸识别难题有新解!通过多模态大模型结合Prompt工程、指令微调(SFT)和强化学习(GRPO),从SKU文本、图片及详情页中精准提取家具尺寸。创新点在于:先用小模型筛选尺寸相关图片提升效率,再让大模型输出推理过程增强可信度,最后用强化学习优化答案稳定性。实测显示混合训练法效果最佳,准确率显著提升。

好奇心之旅:Cursor代码库索引机制的学习笔记

探索Cursor的codebase索引机制,从Merkle Tree到turbopuffer向量数据库,再到开源的Continue实现,揭示AI编程工具背后的技术奥秘。Merkle Tree用于高效变更检测,turbopuffer提供云端向量存储与检索,Continue则通过标签系统和本地数据库实现索引更新。这些技术共同提升了AI编程工具的智能化和效率。

AI 基础知识从 0.3 到 0.4——如何选对深度学习模型?

小编带你了解AI模型架构与预训练模型的应用。从CNN、RNN到Transformer,不同架构适用于各种任务。预训练模型如BERT、GPT系列,通过微调快速适配特定需求,提升效率。Hugging Face等平台提供丰富资源,助你轻松上手AI开发。掌握这些核心概念,AI之旅更顺畅!

APIG x OKG:游戏连接治理的「最后一公里」

游戏连接治理面临七层网络挑战,OKG与APIG联手打造新一代游戏网关,实现优雅下线和无感变更。通过状态感知和流量管理,保障玩家会话连续性,优化云原生游戏体验。解决方案零改造接入,提供全维度可观测性,简化API治理,助力游戏服务快速迭代与高效运维。

150%训练效率提升:感知检测小模型训练优化方法

智能驾驶感知小模型训练优化指南:针对不同算力卡性能差异,从环境配置、代码适配到性能优化提出完整解决方案。重点解决依赖冲突、多卡通信等问题,并通过进程池、共享内存、torch加速等方法提升训练效率。测试表明优化后模型收敛速度提升80%,为自动驾驶场景下的模型部署提供实用参考。

AI 基础知识从 0.2 到 0.3——构建你的第一个深度学习模型

深度学习通过多层神经网络模拟人脑决策,自动提取数据特征,广泛应用于图像、语音和文本处理。本文以MNIST手写数字识别为例,详细介绍了深度学习的基本原理和实现流程,包括数据准备、模型定义、训练和评估步骤,帮助读者理解神经网络的核心概念和实际应用。

面向互联网2C业务的分布式类Manus Java框架

阿里巴巴推出的分布式类ManusAgent框架ali-langengine-dflow,旨在解决现有Agent架构在互联网2C业务场景中的局限性。通过结合分布式服务端与异构C端的混合架构,该框架有效打破了信息孤岛,提升了响应速度与安全性。基于Java生态,采用DFlow分布式执行库,支持本地异步运行,简化了Agent的研发与迭代,特别适用于电商等复杂业务场景。

Home - Wiki
Copyright © 2011-2025 iteam. Current version is 2.144.1. UTC+08:00, 2025-08-01 10:55
浙ICP备14020137号-1 $Map of visitor$