话题公司 › Uber

公司:Uber

关联话题: 优步

优步(英语:Uber,/ˈuːbər/)是一间交通网络公司,总部位于美国加利福尼亚州旧金山,以开发移动应用程序连结乘客和司机,提供载客车辆租赁及媒合共乘的分享型经济服务。乘客可以透过应用程序来预约这些载客的车辆,并且追踪车辆的位置。营运据点分布在全球785个大都市。人们可以透过网站或是手机应用程序进入平台。

优步的名称大多认为是源自于德文über,和over是同源,意思是“在…上面”。 (页面存档备份,存于互联网档案馆)

然而其营业模式在部分地区面临法律问题,其非典型的经营模式在部分地区可能会有非法营运车辆的问题,有部分国家或地区已立法将之合法化,例如美国加州及中国北京及上海。原因在于优步是将出租车行业转型成社群平台,叫车的客户透过手机APP(应用程序),就能与欲兼职司机的优步用户和与有闲置车辆的租户间三者联系,一旦交易成功即按比例抽佣金、分成给予反馈等去监管化的金融手法。

2019年5月10日,优步公司透过公开分发股票成为上市公司,但首日即跌破分发价。

据估算,优步在全球有1.1亿活跃用户,在美国有69%的市占率。优步亦在大中华区开展业务,目前优步已在香港和台湾建成主流召车服务平台,并于中国大陆通过换股方式持有该市场最大网约车出行平台滴滴出行母公司小桔科技17.7%经济权益。

Validating Bounding Box Annotations

Hybrid Core Allocation: From Overallocation to Reliable Sharing

Uber的Odin平台引入混合CPU分配模型,结合专用核心和共享核心,优化突发性工作负载的性能。通过Linux的cpuset和cpu.shares,系统动态分配CPU资源,提升主机级效率。NUMA感知的内存亲和性策略进一步优化了多核系统性能,减少了延迟。这种混合模型降低了过度配置,提高了CPU利用率,确保了服务级别的性能保证。

Accelerating Search and Ingestion with High-Performance gRPC™ in OpenSearch™

Uber在OpenSearch中引入原生gRPC支持,解决了REST/JSON在高流量、大数据量下的性能瓶颈。通过gRPC与Protobuf结合,显著提升了搜索和批量写入的延迟与吞吐量,特别是在向量搜索和大数据场景下表现突出。此举不仅简化了系统集成,还为高吞吐量任务提供了更高效的传输方式,推动了OpenSearch生态的进一步发展。

Accelerating Deep Learning: How Uber Optimized Petastorm for High-Throughput and Reproducible GPU Training

Uber通过优化Petastorm数据加载器,解决了大规模深度学习模型训练中的GPU利用率低和训练不可复现的问题。通过本地磁盘缓存和并行化数据转换,GPU利用率从10-15%提升至60%以上,训练时间从22小时缩短至3小时,计算成本降低80%。同时,消除数据加载中的随机性,确保训练结果的复现性。这些优化显著提升了训练效率和模型迭代速度。

Under the Hood: Scaling Responsible AI at Uber

Uber构建了"负责任AI"计划,通过五大支柱实现AI治理:建立集中式模型目录实现全局可见性,集成特征归因技术提升模型可解释性,将治理流程嵌入开发周期早期,开展全员AI素养培训,并设计灵活机制确保新旧模型合规。这套体系让AI开发透明可控,既保障可靠性又不阻碍创新,为规模化AI应用打下坚实基础。

How Uber Built an Agentic System to Automate Design Specs in Minutes

Uber设计系统团队利用AI代理和Figma Console MCP,自动生成组件规格文档,大幅提升效率。传统手动编写文档耗时且易出错,而uSpec系统通过本地运行,确保数据安全,快速生成准确、一致的规格。该系统支持多平台,涵盖组件结构、API、颜色标注等多方面,显著减少了文档维护的工作量,为设计师和工程师提供了高效的工具。

Transforming Ads Personalization with Sequential Modeling and Hetero-MMoE at Uber

Uber广告系统通过大规模机器学习模型优化广告投放,提升个性化推荐效果。系统引入目标感知Transformer编码器捕捉用户行为序列,增强长期意图建模。同时,采用异构MMoE框架融合多种专家模块,提升跨特征交互能力。升级后的模型显著提高了点击率和转化率,为用户提供更精准的广告推荐,促进广告主和平台的双赢。未来将进一步探索实时序列和长上下文建模,持续优化广告投放效果。

Building High Throughput Payment Account Processing

为解决金融系统中热用户账户高频更新带来的性能瓶颈,设计了一种用户账户批量处理系统。该系统通过250毫秒窗口批量操作,减少数据存储交互,实现每秒30次更新。架构包含批量创建、处理和异步审计日志生成三个服务,采用Redis集群协调和多区域冗余策略,确保一致性和故障容忍。通过优化审计日志格式和分布式时间同步,解决了存储和时钟问题,显著提升了处理效率和系统可靠性。

Superuser Gateway: Guardrails for Privileged Command Execution

Uber开发了Superuser Gateway系统,替代工程师直接执行高危命令的做法。该系统通过CLI工具提交命令,生成PR进行自动化验证和同行评审,最终在受控环境中执行。此举消除了直接超级用户访问的风险,增强了操作的安全性和可审计性,尤其适用于处理数据存储系统的高危操作。该系统未来还将扩展到其他特权系统访问,进一步提升操作安全性。

Database Federation: Decentralized and ACL-Compliant Hive™ Databases

Uber的配送业务数据仓库因单一数据库设计导致性能瓶颈,如资源争用和权限管理混乱。团队通过分库策略,将数据集迁移至独立域库,利用Hive元数据指针实现零停机迁移,避免数据重复存储。系统包含引导迁移器、实时同步器等组件,确保数据一致性和高可用性。最终成功迁移数千数据集,节省PB级存储,提升资源管理效率。

Uber’s Rate Limiting System

Uber设计了全球速率限制器(GRL),通过三层架构实现低延迟和高扩展性。GRL集成到服务网格中,本地代理根据控制平面指令进行速率限制决策,确保全局一致性。此外,速率限制配置器(RLC)自动更新限流配置,适应流量变化。该系统显著降低了延迟,简化了基础设施,并在高负载下维持了平台的稳定性。

Introducing uFowarder: The Consumer Proxy for Kafka Async Queuing

Uber开发了uForwarder,一个基于Kafka的推送式消费者代理,用于优化硬件效率、确保消费者隔离、解决队头阻塞和支持消息延迟处理。该系统通过gRPC接口抽象Kafka消费者管理复杂性,支持上下文感知路由和延迟处理机制,提升消息队列性能和可靠性。uForwarder已开源,旨在简化大规模数据处理场景下的消息队列应用。

How Uber Scaled Data Replication to Move Petabytes Every Day

Uber采用HiveSync服务和Distcp工具进行大规模数据复制,但随着数据量激增,Distcp性能瓶颈显现。通过优化Distcp,将Copy Listing和Input Splitting任务移至Application Master,并行处理Copy Listing和Copy Committer任务,并引入Uber jobs减少容器启动,显著提升了数据复制效率和资源利用率。这些改进使Uber的数据处理能力提升了5倍,成功迁移了306PB数据到云端。

Apache Hudi™ at Uber: Engineering for Trillion-Record-Scale Data Lake Operations

Uber构建了全球最大规模的Hudi数据湖,每日处理数万亿行数据,支持实时决策和机器学习。Hudi作为核心存储引擎,提供ACID事务、快速更新和增量处理,满足高并发、低延迟需求。通过创新如元数据表和记录索引,Hudi解决了大规模数据处理中的性能瓶颈,确保数据新鲜度和正确性,助力Uber从批处理向流处理的平滑过渡。

How Uber Conquered Database Overload: The Journey from Static Rate-Limiting to Intelligent Load Management

Uber构建了智能负载管理系统Cinnamon,通过优先级感知和动态调节机制保护数据库稳定性。系统采用PID控制器动态调整队列超时和并发限制,优先处理高优先级请求,避免过载。结合本地和远程信号,Cinnamon实现了全局最优的负载均衡,显著提升了吞吐量、降低了延迟和资源消耗。核心经验包括快速失败、贴近源头控制及动态适应,确保关键业务不受影响。(139字)

From Monitoring to Observability: Our Ultra-Marathon to a Cloud-Native Platform

Uber将企业网络监控系统升级为云原生可观测平台,采用开源技术栈(Telegraf、Prometheus、Grafana等),实现动态配置和智能告警。新架构基于Kubernetes,具备高扩展性和自愈能力,通过AI分析历史数据提升故障处理效率。这一变革大幅降低了运维成本,使内部网络更可靠、自动化,为未来AI驱动的网络运营奠定基础。

Главная - Вики-сайт
Copyright © 2011-2026 iteam. Current version is 2.155.2. UTC+08:00, 2026-05-04 00:22
浙ICP备14020137号-1 $Гость$