话题公司 › 阿里巴巴

公司:阿里巴巴

关联话题: Alibaba、阿里、闲鱼

阿里巴巴集团创立于1999年,是中国大陆一家以提供互联网服务为主的综合企业集团,目前实行位于杭州,上海与北京的双总部制度。

阿里巴巴服务范围包括B2B贸易、网上零售、购物搜索引擎、第三方支付和云计算服务。集团的子公司包括阿里巴巴B2B、淘宝网、天猫、一淘网、阿里云计算、聚划算、全球速卖通、阿里巴巴国际交易市场、饿了么、飞猪、优酷、盒马鲜生、阿里影业、菜鸟网络、高德地图、Lazada、Daraz等。旗下的淘宝网和天猫在2012年销售额达到1.1兆人民币,2015年度商品交易总额已经超过三兆元人民币,是全球最大零售商。

至2012年九月底止的财政年度,以美国会计准则计算,阿里营业额按年增长74%至318.39亿元(港元‧下同),盈利急升80%至37.75亿元。2015年全年,阿里巴巴营收146.01亿美元,净利为74.94亿美元。2017年,根据阿里巴巴集团向美国证券交易委员会提交的IPO招股书显示,雅虎持有阿里巴巴集团22.6%股权、软银持阿里集团34.4%股份,另管理层、雇员及其他投资者持股比例合共约为43%,当中马云持阿里巴巴集团约8.9%、蔡崇信持股为3.6%。

2019年11月,阿里巴巴集团在在港交所二次上市。香港财经界把阿里巴巴、腾讯(港交所:700)、美团点评(港交所:3690)、小米(港交所:1810)四只中国大陆科技股的英文名称首个字母,合称“ATMX”股份。

2019年11月26日,阿里巴巴集团港股上市,总市值超4兆,登顶港股成为港股“新股王”。2020年8月,阿里巴巴集团港股总市值首次超过6万亿。

阿里巴巴拆份出去的蚂蚁集团上市前,网络金服整体遭遇到政府的强力监管,阿里巴巴同样受到影响,2021年4月10日,阿里巴巴集团涉垄断被中国市场监管总局罚款182.28亿元人民币。2023年三家中国最主要的金融机构,再联合开罚71亿元,不过也随着官方宣布最后整顿工作的完成,阿里巴巴股价开始反弹。

当我们在谈多端一码时,我们在谈论什么

直播业务通过Kotlin Multiplatform(KMP)实现"多端一码",解决了多端逻辑差异问题。KMP支持代码复用、渐进式迁移,性能媲美原生,学习曲线平缓。团队从技术预研到复杂业务落地,验证了KMP在直播核心场景的可行性,如PM消息服务迁移和生命周期统一,显著提升了开发效率和稳定性,为未来UI与逻辑全面统一打下基础。

200行python代码实现从Bigram模型到LLM

从零开始,用200行Python代码实现了一个基于Transformer架构的GPT模型。通过逐步添加self-attention、position嵌入等机制,最终构建了一个完整的语言模型。模型在训练后能够生成更通顺的文本,展示了Transformer的强大能力。代码简洁明了,适合初学者理解和实践,为进一步优化和扩展奠定了基础。

从零开始200行python代码实现LLM

这篇文章手把手教你用Python从零实现一个极简版大语言模型!无需机器学习基础,只需会写Python代码,就能亲手搭建一个能生成古诗词的Bigram模型。通过具体代码示例,清晰展示了词汇表构建、概率统计、文本生成等关键步骤,还对比了传统方法与PyTorch实现的区别。跟着教程走,你不仅能理解tokenizer、embedding等核心概念,还能直观感受模型训练过程。最后实现的迷你模型虽然参数量仅39万,但已经能生成像模像样的诗词啦!

一文讲透程序编排的核心方式:从表达式语言到并行化实践

高德POI数据处理中,通过流程化配置和表达式语言提升开发效率。文章探讨了单语句表达式、类结构映射、流程化配置及并行化调度等编排方式,结合真实系统演进,分享高灵活性任务处理引擎的设计经验。这些编排方式适用于多种场景,助力复杂逻辑处理,提升系统设计能力。

大模型微调知识与实践分享

大模型微调全攻略来啦!从模型结构、参数量到显存计算,一文带你具象认识LLM。重点解析Prompt工程、数据构造和LoRA微调等关键技术,手把手教你用开源框架进行实践。还附赠推理加速技巧和效果评估方法,助你快速打造专属领域模型。无论是技术原理还是实操细节,这篇干货都能满足你的需求~

什么!我把SQL编辑器装进了大模型?

大型语言模型在生成SQL时易产生语法错误,难以满足企业级场景的精准需求。通过约束解码技术,结合上下文无关文法和Jinja模板引擎,实时过滤不合规的候选token,确保SQL语法正确且符合业务逻辑。该方案赋予LLM生成结构化数据的能力,提升输出准确性和可控性,助力智能数据管理平台构建。

MCP Server的五种主流架构与Nacos的选择

MCP协议连接AI大模型与应用,但企业级部署面临多重挑战。本文详解MCP Server的五种架构模式,包括直连Remote Server、通过Proxy连接Remote Server、直连Local Server、通过Local Proxy连接Local Server及混合模式,各有优劣,适用于不同业务场景。Nacos服务治理框架赋能MCP架构,提供智能路由与统一管理,简化企业级MCP部署。

淘宝直播组件调度、复用和治理

淘宝直播组件通过组件调度、组件复用和组件治理三大优化方向,显著提升了直播间性能和用户体验。组件调度实现延迟加载,支持暂停、恢复和取消;组件复用利用RecyclerView缓存机制,减少重复创建;组件治理则通过精简非必要操作,降低加载耗时。这些优化在CPU使用率、卡顿率等技术指标,以及人均观看时长、转化率等业务数据上均取得显著提升。未来将继续优化布局层级和组件内部逻辑,进一步提升性能。

Multi-Agent 的灵活编排之路

Copilot 3.0通过多智能体架构和规划模块,显著提升了商家经营助手的智能化水平。采用GRPO强化学习训练,优化了复杂问题的处理效率和简单问题的响应速度。通过多阶段训练和奖励函数设计,模型在准确性和推理成本上取得平衡,实现了更高效的智能体调度和问题解决能力。

淘宝Java工程师的LLM开发实践

AI大模型技术迅猛发展,Java工程师如何高效应用成为关键。本文从Java视角探讨LLM应用开发,涵盖对话聊天、联网搜索、个人知识库等功能。介绍了LLM基本概念、开发框架如Spring AI,以及Function Calling和RAG技术。通过实践,读者可掌握LLM开发核心技能,构建类似ChatGPT的智能应用。

如何管理和调度Dify工作流?

Dify是一款开源大模型应用开发平台,支持通过可视化画布快速构建AI Agent和工作流。然而,Dify缺乏定时调度和监控报警功能,且执行记录过多影响性能。为解决这些问题,推荐使用任务调度系统如Dify Schedule或XXL-JOB进行调度,前者基于GitHub Actions,适合公网Dify,后者支持秒级调度和丰富监控,适合企业级应用。两种方案各有优劣,可根据需求选择。

一文带你 "看见" MCP 的过程,彻底理解 MCP 的概念

MCP协议作为AI模型的“USB-C端口”,标准化了模型与数据源、工具的连接。通过客户端-服务器架构,MCP动态适应工具变化,提升模型响应质量。相比传统API,MCP更灵活,减少代码更新需求。未来,MCP或与智能体协同协议结合,推动AI工具使用和智能协作的进一步发展。

如何让 Agent 规划调用工具

在多工具智能体系统中,引入结构化的“思考与规划”工具和合理的提示工程能显著提升模型解决问题的效率和效果。OpenAI和Anthropic的研究表明,模型在调用工具前进行规划能大幅提升性能。我们选择Anthropic的方案,通过工具调用实现更结构化的输出,适用于快速任务。DeepSeek V3模型在规划和工具调用方面表现优异,推荐使用端到端模式以提高效率。

CursorRules:AI编程助手规则调优实战

CursorRules 是 AI 编程助手 Cursor 的行为规范工具,帮助开发者精细化管理 AI 的代码生成行为。通过全局和项目特定规则,开发者可以定制 AI 的代码风格、技术栈偏好和错误处理方式。新推荐的 .cursor/rules/ 目录结构让规则管理更模块化,结合 RuleType 实现按需加载。此外,@Docs 功能允许 AI 参考外部文档,提升代码生成的精准度。合理使用 CursorRules 能显著提升代码质量和开发效率。

MCP客户端调用看这一篇就够了(Java版)

MCP协议统一了大模型工具调用,解决了客户端和服务端对接的痛点。Spring-AI框架简化了MCP调用,支持动态工具注入,适合快速构建应用。原生SDK提供更灵活的控制,适合平台级开发。Spring-AI-Alibaba扩展了集团内部技术栈支持。MCP在规划反思类场景中潜力巨大,未来将进一步探索。

多快好省,Qwen3混合部署模式引爆MCP

MCP(Model Context Protocol)通过Host、Client、Server三个核心组件,实现AI与外部工具和数据源的灵活交互。Claude模型通过prompt智能选择工具,执行后反馈结果生成最终回应。Qwen3采用混合专家架构,支持119种语言,性能大幅提升,部署成本降低,提供多种模型版本,适用于不同场景。通过MCP,用户可轻松调用现成工具,开发者则能快速构建自定义服务器。

- 위키
Copyright © 2011-2025 iteam. Current version is 2.143.0. UTC+08:00, 2025-06-01 04:55
浙ICP备14020137号-1 $방문자$