话题公司 › 阿里巴巴

公司:阿里巴巴

关联话题: Alibaba、阿里、闲鱼

阿里巴巴集团创立于1999年,是中国大陆一家以提供互联网服务为主的综合企业集团,目前实行位于杭州,上海与北京的双总部制度。

阿里巴巴服务范围包括B2B贸易、网上零售、购物搜索引擎、第三方支付和云计算服务。集团的子公司包括阿里巴巴B2B、淘宝网、天猫、一淘网、阿里云计算、聚划算、全球速卖通、阿里巴巴国际交易市场、饿了么、飞猪、优酷、盒马鲜生、阿里影业、菜鸟网络、高德地图、Lazada、Daraz等。旗下的淘宝网和天猫在2012年销售额达到1.1兆人民币,2015年度商品交易总额已经超过三兆元人民币,是全球最大零售商。

至2012年九月底止的财政年度,以美国会计准则计算,阿里营业额按年增长74%至318.39亿元(港元‧下同),盈利急升80%至37.75亿元。2015年全年,阿里巴巴营收146.01亿美元,净利为74.94亿美元。2017年,根据阿里巴巴集团向美国证券交易委员会提交的IPO招股书显示,雅虎持有阿里巴巴集团22.6%股权、软银持阿里集团34.4%股份,另管理层、雇员及其他投资者持股比例合共约为43%,当中马云持阿里巴巴集团约8.9%、蔡崇信持股为3.6%。

2019年11月,阿里巴巴集团在在港交所二次上市。香港财经界把阿里巴巴、腾讯(港交所:700)、美团点评(港交所:3690)、小米(港交所:1810)四只中国大陆科技股的英文名称首个字母,合称“ATMX”股份。

2019年11月26日,阿里巴巴集团港股上市,总市值超4兆,登顶港股成为港股“新股王”。2020年8月,阿里巴巴集团港股总市值首次超过6万亿。

阿里巴巴拆份出去的蚂蚁集团上市前,网络金服整体遭遇到政府的强力监管,阿里巴巴同样受到影响,2021年4月10日,阿里巴巴集团涉垄断被中国市场监管总局罚款182.28亿元人民币。2023年三家中国最主要的金融机构,再联合开罚71亿元,不过也随着官方宣布最后整顿工作的完成,阿里巴巴股价开始反弹。

阿里云Tair KVCache:打造以缓存为中心的大模型Token超级工厂

Tair KVCache是阿里云为应对大语言模型推理中的显存瓶颈推出的创新缓存加速服务。通过构建显存-内存-存储三级缓存体系,动态分层存储KVCache,显著提升计算效率和上下文长度支持。其分布式内存池化设计突破了单机内存限制,支持更大批处理和长上下文推理,同时优化带宽利用率,实现高效推理加速。Tair KVCache兼容主流推理引擎,提供毫秒级响应,满足高并发、低延迟的生成式AI场景需求。

人物图片生成技术探索

淘宝内容AI团队通过AIGC技术,在视频生成、图文联合生成等领域取得突破,实现了人物图片生成、角色一致性、场景一致性等核心问题的解决。团队采用Flux.1模型进行优化,通过多分辨率训练、风格与内容解耦等策略,提升了生成效果。此外,团队还探索了多模态人物视频驱动等技术,为电商内容生态提供了创新解决方案。

大模型联网搜索的短板与突破之路

大模型联网搜索功能通过实时获取互联网信息,弥补预训练知识库的时效性不足。然而,实际应用中存在搜索来源不可查证、内容胡编乱造、指令难以遵循等问题。针对这些问题,可通过优化提示词、内容后处理、自定义搜索工具等方法提升搜索结果的准确性和可信度,确保大模型回复的真实有效。

MCP:跨越AI模型与现实的桥梁

Claude 3.7 Sonnet 是 Anthropic 推出的最新 AI 模型,在逻辑推理、代码生成和复杂任务执行方面表现卓越。通过 MCP(模型上下文协议),AI 能够轻松连接外部数据源和工具,简化开发流程。MCP 作为“AI 万能接口”,降低了技术门槛,使 AI 应用更智能、更实用,预示着 AI 与人类深度合作的未来。

Manus的技术实现原理浅析与简单复刻

Manus是一款通用型AI助手,能自主规划并执行复杂任务,如撰写报告、制作表格等。它采用增量式任务分解和反思调整机制,通过沙箱环境执行命令和代码,确保任务高效完成。Manus的设计灵感来自CodeAct,结合了ReAct模式和多工具调用,展现了强大的自主性和执行能力。复刻Manus需集成命令执行、代码运行、搜索和网页浏览等基础工具,未来AI发展或趋向此类Computer Use形态。

揭开RAG的神秘面纱:重新定义信息检索的革命性技术

检索增强生成(RAG)结合了检索与生成技术,通过向量数据库高效检索知识,并结合大模型生成合理答案。RAG解决了大模型知识局限、幻觉和数据安全等问题,关键技术包括文本清洗、切块、向量嵌入和提示词工程。优化召回效果、结合元数据和多检索器融合可提升系统性能,评估方法包括命中率和LLM评估法。

大模型推理框架RTP-LLM Embedding技术揭秘

阿里巴巴智能引擎团队基于自研的RTP-LLM大模型推理引擎,优化了Embedding框架,解决了Transformer模型在计算Embedding时的性能瓶颈。通过高性能算子、请求调度策略优化及模型量化技术,显著提升了计算效率和吞吐量,成功应用于淘宝主搜等场景,并在双十一期间表现优异。未来将继续优化HTTP服务性能和调度策略,进一步提升框架表现。

如何解决隐式内存占用难题?

在云原生和容器化环境中,内存管理面临隐式内存占用、filecache高、SReclaimable高、cgroup残留和内存去向不明等挑战。阿里云操作系统控制台提供了一站式解决方案,通过内存全景分析、文件缓存解析等功能,帮助用户精准定位和解决内存问题,提升系统性能和运维效率。控制台还支持共享内存泄露检测和内存QoS优化,确保业务稳定运行。未来将进一步提升AI运维能力和跨平台兼容性。

如何监控vLLM等大模型推理性能?

本文探讨了AI推理应用的可观测性需求,提出了基于Prometheus的完整监控方案,涵盖性能、资源利用率、模型行为及分布式架构等方面。通过Ray Serve和vLLM框架的实践,详细展示了如何采集和分析推理应用的各项指标,确保高效、稳定的推理服务。全链路监控方案为开发者提供了全面的可观测性支持,助力AI推理应用的优化与扩展。

阿里云资深架构师经验分享——DevSecOps最佳实践

阿里云在DevSecOps实践中,通过专业工具链和系统化方法,将安全融入产品开发全流程。设计环节中,安全架构师与安全工程师协作,确保架构安全。阿里云还通过分层防御和零信任体系,构建了纵深防护机制,有效应对复杂安全挑战,保障云产品安全水位。

AI赋能:大模型创新的模板生成与内容填充

淘宝利用AIGC技术优化内容生成,从信息流到详情页全方位提升用户体验。通过大模型的强大能力,自动生成图文导购模板,简化设计和转译流程,显著降低时间和人力成本。AI自动识别和填充模板坑位,适应动态内容变化,提升灵活性和精准性。未来,大模型将进一步推动内容创作的智能化和个性化,为用户提供更优质购物体验。

AI 推理场景的痛点和解决方案

推理服务面临限流、负载均衡、异步化、数据管理和索引增强等挑战。通过Tair数据库的丰富数据结构,如限流、负载均衡、异步处理和向量检索,能有效解决这些问题。Tair在性能、扩展性和持久化方面表现优异,适合推理场景的高效需求,提升系统稳定性和响应速度。

淘宝直播AI提效探索的一些心得

淘宝直播团队在AI技术应用上进行了多领域探索,包括服务端、前端、数据科学等,通过任务拆分、输入提炼、人机交互等方式提升效率。文章详细分析了AI的优势与局限,如文本生成能力与固定思维过程,并分享了RAG实践、FT调优等技术的具体应用。团队期待未来在垂直应用和基础能力建设上持续创新与合作。

淘宝推荐算法系列:首猜两阶段端到端多兴趣新范式

淘宝首页“猜你喜欢”商品召回场景中,传统单用户向量模型存在训练效果不理想的问题。为此,我们提出了端到端的多兴趣建模新范式DM_Interest,通过联合训练一阶段兴趣预测和二阶段意图召回,显著提升了模型的表达能力和泛化性能。实验表明,DM_Interest在离线评测和线上实验中均表现出色,不仅召回类目更加丰富,命中率也更高,为个性化推荐提供了更精准的解决方案。

主流多智能体框架设计原理

智能体(Agent)是可感知环境并利用工具实现目标的应用程序,分为工作流系统和智能体系统。多智能体系统通过任务分解和专业化分工处理复杂任务,克服单智能体的局限性。框架如Swarm和AutoGen提供了轻量级和灵活的多智能体协调方式,适用于从教育到生产的多种场景。智能体协作模式包括动态任务规划和智能代理协调,提升系统整体性能。

详解大模型应用可观测全链路

阿里云针对LLM应用推出可观测解决方案,覆盖从硬件到软件的全链路监控。方案通过Trace、Metric、Log构建立体观测体系,支持自动化埋点、领域化指标洞察和用户体验监控。提供推理性能、Token消耗、调用链和会话分析视图,帮助开发者优化提示词调优,实现端到端全链路透视,提升应用稳定性和业务表现。

首页 - Wiki
Copyright © 2011-2025 iteam. Current version is 2.142.1. UTC+08:00, 2025-03-24 20:34
浙ICP备14020137号-1 $访客地图$