公司:阿里巴巴
阿里巴巴集团创立于1999年,是中国大陆一家以提供互联网服务为主的综合企业集团,目前实行位于杭州,上海与北京的双总部制度。
阿里巴巴服务范围包括B2B贸易、网上零售、购物搜索引擎、第三方支付和云计算服务。集团的子公司包括阿里巴巴B2B、淘宝网、天猫、一淘网、阿里云计算、聚划算、全球速卖通、阿里巴巴国际交易市场、饿了么、飞猪、优酷、盒马鲜生、阿里影业、菜鸟网络、高德地图、Lazada、Daraz等。旗下的淘宝网和天猫在2012年销售额达到1.1兆人民币,2015年度商品交易总额已经超过三兆元人民币,是全球最大零售商。
至2012年九月底止的财政年度,以美国会计准则计算,阿里营业额按年增长74%至318.39亿元(港元‧下同),盈利急升80%至37.75亿元。2015年全年,阿里巴巴营收146.01亿美元,净利为74.94亿美元。2017年,根据阿里巴巴集团向美国证券交易委员会提交的IPO招股书显示,雅虎持有阿里巴巴集团22.6%股权、软银持阿里集团34.4%股份,另管理层、雇员及其他投资者持股比例合共约为43%,当中马云持阿里巴巴集团约8.9%、蔡崇信持股为3.6%。
2019年11月,阿里巴巴集团在在港交所二次上市。香港财经界把阿里巴巴、腾讯(港交所:700)、美团点评(港交所:3690)、小米(港交所:1810)四只中国大陆科技股的英文名称首个字母,合称“ATMX”股份。
2019年11月26日,阿里巴巴集团港股上市,总市值超4兆,登顶港股成为港股“新股王”。2020年8月,阿里巴巴集团港股总市值首次超过6万亿。
阿里巴巴拆份出去的蚂蚁集团上市前,网络金服整体遭遇到政府的强力监管,阿里巴巴同样受到影响,2021年4月10日,阿里巴巴集团涉垄断被中国市场监管总局罚款182.28亿元人民币。2023年三家中国最主要的金融机构,再联合开罚71亿元,不过也随着官方宣布最后整顿工作的完成,阿里巴巴股价开始反弹。
淘宝客户端动态化页面搭建
手机淘宝等高频更新场景中,UI页面动态化与快速交付是重要挑战。通过抽象框架设计,解决高动态化页面的快速构建问题。框架核心模块包括DataEngine、LayoutEngine、StateCenter等,实现页面动态性、组件通信及业务接入。结合案例分析布局多样性问题,总结框架在动态性、拓展性和能力沉淀方面的优势,为类似业务提供实践经验。
如何结合多模态RAG和异步调用实现大模型内容理解?
多模态大模型结合工程优化提升物流理赔效率。通过多模态RAG技术实现图片查重,异步调用优化货损识别。查重功能准确率达94%,时延2s;货损识别准确率提升至82%,时延降至3.2s。方案利用向量库检索相似图片,大模型判断重复与货损,异步调用提高并发处理能力,最终整合结果提升整体效率。
如何与AI结对编程:我与AI的8000行代码实践
AI编程工具如Cursor和repoprompt极大提升了开发效率,尤其适合快速验证小项目。使用AI时,需明确需求并提供详细上下文,避免模糊指令导致返工。repoprompt通过白盒化操作,让开发者更可控地生成代码,减少返工时间。AI编程虽高效,但开发者仍需具备足够知识储备,才能有效指导AI完成任务。未来AI或能协助全链路开发,但程序员的角色仍不可或缺。
架构革新:揭示卓越性能与高可扩展的共赢秘诀
LoongCollector通过架构通用化升级,面对性能劣化挑战,采用内存池、事件池等优化手段,成功提升采集性能100%。针对特定场景如Prometheus抓取,避免内存拷贝和引入流式处理,显著降低内存占用。在保证代码可扩展性的同时,实现了高性能目标。
技术人的大模型应用初学指南
人工智能领域,检索增强生成(RAG)技术通过结合检索与生成,显著提升了信息检索的准确性和效率。RAG利用向量数据库存储知识,结合大模型生成答案,解决了知识局限性和幻觉问题。其关键技术包括文本清洗、向量嵌入、召回优化等。RAG在高质量答案生成、可扩展性、可解释性和成本效益方面表现出色,但依赖检索模块和知识库,推理耗时较长。提示词工程和模型微调(如LoRA)进一步优化了大模型性能。
一文了解DeepSeek及应用场景
本文详细介绍了DeepSeek大模型的发展历程、技术路线及性能优势。DeepSeek-V3和R1分别专注于通用任务和复杂推理,具有低成本、高性能特点,尤其在数学、代码等领域表现突出。其技术核心包括MoE、MLA架构及多步token预测,显著提升了推理效率。DeepSeek的开源策略和低成本API调用进一步推动了AI大模型行业的竞争与创新。
阿里云Tair KVCache:打造以缓存为中心的大模型Token超级工厂
Tair KVCache是阿里云为应对大语言模型推理中的显存瓶颈推出的创新缓存加速服务。通过构建显存-内存-存储三级缓存体系,动态分层存储KVCache,显著提升计算效率和上下文长度支持。其分布式内存池化设计突破了单机内存限制,支持更大批处理和长上下文推理,同时优化带宽利用率,实现高效推理加速。Tair KVCache兼容主流推理引擎,提供毫秒级响应,满足高并发、低延迟的生成式AI场景需求。
人物图片生成技术探索
淘宝内容AI团队通过AIGC技术,在视频生成、图文联合生成等领域取得突破,实现了人物图片生成、角色一致性、场景一致性等核心问题的解决。团队采用Flux.1模型进行优化,通过多分辨率训练、风格与内容解耦等策略,提升了生成效果。此外,团队还探索了多模态人物视频驱动等技术,为电商内容生态提供了创新解决方案。
大模型联网搜索的短板与突破之路
大模型联网搜索功能通过实时获取互联网信息,弥补预训练知识库的时效性不足。然而,实际应用中存在搜索来源不可查证、内容胡编乱造、指令难以遵循等问题。针对这些问题,可通过优化提示词、内容后处理、自定义搜索工具等方法提升搜索结果的准确性和可信度,确保大模型回复的真实有效。
MCP:跨越AI模型与现实的桥梁
Claude 3.7 Sonnet 是 Anthropic 推出的最新 AI 模型,在逻辑推理、代码生成和复杂任务执行方面表现卓越。通过 MCP(模型上下文协议),AI 能够轻松连接外部数据源和工具,简化开发流程。MCP 作为“AI 万能接口”,降低了技术门槛,使 AI 应用更智能、更实用,预示着 AI 与人类深度合作的未来。
Manus的技术实现原理浅析与简单复刻
Manus是一款通用型AI助手,能自主规划并执行复杂任务,如撰写报告、制作表格等。它采用增量式任务分解和反思调整机制,通过沙箱环境执行命令和代码,确保任务高效完成。Manus的设计灵感来自CodeAct,结合了ReAct模式和多工具调用,展现了强大的自主性和执行能力。复刻Manus需集成命令执行、代码运行、搜索和网页浏览等基础工具,未来AI发展或趋向此类Computer Use形态。
揭开RAG的神秘面纱:重新定义信息检索的革命性技术
检索增强生成(RAG)结合了检索与生成技术,通过向量数据库高效检索知识,并结合大模型生成合理答案。RAG解决了大模型知识局限、幻觉和数据安全等问题,关键技术包括文本清洗、切块、向量嵌入和提示词工程。优化召回效果、结合元数据和多检索器融合可提升系统性能,评估方法包括命中率和LLM评估法。
大模型推理框架RTP-LLM Embedding技术揭秘
阿里巴巴智能引擎团队基于自研的RTP-LLM大模型推理引擎,优化了Embedding框架,解决了Transformer模型在计算Embedding时的性能瓶颈。通过高性能算子、请求调度策略优化及模型量化技术,显著提升了计算效率和吞吐量,成功应用于淘宝主搜等场景,并在双十一期间表现优异。未来将继续优化HTTP服务性能和调度策略,进一步提升框架表现。
如何解决隐式内存占用难题?
在云原生和容器化环境中,内存管理面临隐式内存占用、filecache高、SReclaimable高、cgroup残留和内存去向不明等挑战。阿里云操作系统控制台提供了一站式解决方案,通过内存全景分析、文件缓存解析等功能,帮助用户精准定位和解决内存问题,提升系统性能和运维效率。控制台还支持共享内存泄露检测和内存QoS优化,确保业务稳定运行。未来将进一步提升AI运维能力和跨平台兼容性。
如何监控vLLM等大模型推理性能?
本文探讨了AI推理应用的可观测性需求,提出了基于Prometheus的完整监控方案,涵盖性能、资源利用率、模型行为及分布式架构等方面。通过Ray Serve和vLLM框架的实践,详细展示了如何采集和分析推理应用的各项指标,确保高效、稳定的推理服务。全链路监控方案为开发者提供了全面的可观测性支持,助力AI推理应用的优化与扩展。
阿里云资深架构师经验分享——DevSecOps最佳实践
阿里云在DevSecOps实践中,通过专业工具链和系统化方法,将安全融入产品开发全流程。设计环节中,安全架构师与安全工程师协作,确保架构安全。阿里云还通过分层防御和零信任体系,构建了纵深防护机制,有效应对复杂安全挑战,保障云产品安全水位。