话题公司 › 腾讯

公司:腾讯

关联话题: Tencent、微信、QQ

腾讯控股有限公司(英语:Tencent Holdings Limited),简称腾讯,是中国一家跨国企业控股公司,为中国大陆规模最大的互联网公司,1998年11月由马化腾、张志东、陈一丹、许晨晔、曾李青5位创始人共同创立,总部位于深圳南山区腾讯滨海大厦。腾讯业务拓展至社交、金融、投资、资讯、工具和平台等不同领域,其子公司专门从事各种全球互联网相关服务和产品、娱乐、人工智能和技术。目前,腾讯拥有中国大陆使用人数最多的社交软件腾讯QQ和微信,以及最大的网络游戏社区腾讯游戏。在电子书领域 ,旗下有阅文集团,运营有QQ阅读和微信读书。

腾讯于2004年6月16日在香港交易所挂牌上市,于2016年9月5日首次成为亚洲市值最高的上市公司,并于2017年11月21日成为亚洲首家市值突破5000亿美元的公司。2017年,腾讯首次跻身《财富》杂志世界500强排行榜,以228.7亿美元的营收位居478位。2021年腾讯因财付通业务,也受到了国家金融机构的监管风暴影响,一度被重罚股价大跌,直到2023年整顿完成后才重回世界十大。

香港财经界把阿里巴巴、腾讯、美团点评、小米四只中国大陆科技股的英文名称首个字母,合称“ATMX”股份。

基于AST技术的Taro框架升级方案

先梳理 Taro 新旧版本差异,然后针对这些差异制定不同的处理策略,对于语法特性及配置层面的差异我们通过抽象语法树(AST)来进行转换,这种方式能够面面俱到处理每一个文件,即使发现遗漏的事项,只要优化下升级程序就好。当然有些差异点旁路逻辑太多,程序处理本身编码就很复杂,这块考虑 ROI 也可程序升级完成后人工再介入处理下。

异常≠错误,正如Bug≠事故,详解业务开发中的异常处理

常见的代码异常需求归类与思考。

放弃PHP转投Go,10万行代码重构升级一步到位!

5大核心场景、10万行老旧代码,一次“酸爽”的重构之旅。

深入探讨GPTs和AI Assistant

GPTs 有着简单易用的前端交互,可以很快速地方便小白用户快速搭建 AI 助手,可以快速地验证方案和效果,并且可以很快速的在 GPTs 的商店中进行分享。

然而, Assistant API 需要通过API的方式进行操作,虽然可以使用 Assistant API 的 Assistant playground 进行配置使用,但是其主要的目的还是为开发者提供一个API 方式,方便开发者可以在在自己的应用中,快速集成这些能力。

eBPF部署使用及实现原理

当前eBPF技术在日常问题诊断中用的越来越多,也越来越成熟。eBPF可以定位内核问题,也可以进行网络相关的性能优化。尤其在不允许服务器重启的场景,eBPF作用更加突出。即写即用,工具文件写好可直接在环境执行,效率也非常高。

敏捷设计用研方法探索

设计用研一般是由设计或产品同学主导的。在设计开发的过程中,产品和设计经常会对方案及细节产生争议或疑惑,这时候就需要用研方法去辅助确定设计可行性。

但设计开发流程普遍讲求快速迭代,研究周期较长的专业用研较难适用于此。因此设计用研方法应运而生,既能简单敏捷地验证设计方案或设计细节的可行性,也能保证整体的开发设计进度。

腾讯网关TGW架构演进之路

TGW全称Tencent Gateway,是一套实现多网统一接入,支持自动负载均衡的系统, 是公司有10+年历史的网关,因此TGW也被称为公司公网的桥头堡。本文从山海网关TGW的应用场景、背景需求讲起,重点解析了从山海1.0到山海2.0需要解决的问题和架构规划与设计实现,以及对于未来山海网关的发展和演进方向。

熔断、隔离、重试、降级、超时、限流,高可用架构流量治理核心策略全掌握

对于人类的身体健康来说,“三高”是个大忌,但在计算机界,系统的“三高”却是健康的终极目标。本文将介绍一下流量治理是如何维持这种“三高”系统的健康,保障数据流动的均衡与效率,就如同营养顾问在维持人类健康饮食中所起的作用一般。

iOS类簇代码保护引发的Crash原因排查全记录

全民 K 歌在一个业务需求中,接入了一个第三方的 SDK,接入后启动 APP 就出现 crash,在后续的定位排查中,发现这是由一段关于对系统类簇添加保护代码引发的。

对抗复杂度的圣杯战争:软件架构究竟该如何设计?

软件架构的发展经历了不同阶段,从大型硬件到云虚拟机和容器,再到无服务器架构,最终又回到了大型硬件。为了应对这种变化,我们需要采取一些准备措施,如将第三方API隐藏在自己的抽象层之后,将代码分解为多个组件,以便在部署到大型服务器之前更容易修改。此外,遵循设计原则如SRP和LSP也是重要的。SRP强调每个软件模块只负责一类行为者,而LSP则要求能够轻易扩展系统而不需要修改原有代码。这些原则能够帮助我们构建更具弹性的软件系统。

Android深入卡顿分析与实践

视觉预期帧率,用户潜意识里认为下帧也应该是当前帧率刷新比如一直60帧,用户潜意识里认为下帧也应该是60帧率。刷新一直是25帧,用户潜意识里认为下帧也应该是25帧率。但是刷新如果是60帧一下跳变为25帧,扰乱用户视觉惯性。这时就会体验卡顿。

酷我音乐iOS小组件适配开发实践

由于没有准备demo,所以将零散的内容列出来重新开发了一遍小组件,并列举了一些关键的技术细节。虽然没有提供其他通讯方式、旋转动画实现、适配standBy和灵动岛相关功能的介绍,但作者表示这些问题已经解决,并期待其他人加入实现相关功能。

Python过气,Hadoop凉了?零基础项目实战诠释何为经典

Python+Hadoop是大数据处理的黄金搭档,Hadoop的核心组件包括HDFS、MapReduce和YARN。HDFS将大文件切分成小的数据块存储在不同节点上,通过NameNode获取元数据信息并读取数据块。本文演示了使用Python+Hadoop统计单词数量的过程。客户端验证路径合法性和权限后,NameNode为文件分配块存储信息,并返回元数据和输出流给客户端。客户端通过输出流向第一个DataNode写入数据块。

从VS Code看优秀插件系统的设计思路

在目前流行的框架中,通常都会采用插件来定制、扩展系统的能力。其实插件系统在软件架构中有一个更专业的术语:微内核架构。本文将详细介绍微内核架构的原理、优势、分类、同时也会对优秀的软件案例进行分析,最后结合笔者当前负责的中型前端项目,分享微内核架构在实际项目的实践。通过本文您将了解什么是插件系统,如何设计插件系统,以及怎么更优雅地实现插件系统。

回归单体成为潮流?腾讯文档如何实现灵活架构切换

软件架构从来没有所谓的银弹,好的架构除了良好的设计,更少不了持续的迭代优化。腾讯文档在业务挑战之下,实现了一种灵活切换单体、微服务的架构设计方案,对业界同类型同场景项目具备较高可借鉴性。本文将详细介绍腾讯文档在实现单体服务和微服务切换过程中所采用的具体方法和技术,以及所取得的收益。

深入剖析开源大模型+Langchain框架智能问答系统性能下降原因

开源LLM在与openAI结合的技术方案下性能下降的原因主要有三个:开源中文embedding模型在Retrieval任务上表现不佳;模型输入tokens限制导致候选chunks数量少;模型自身在阅读理解和总结任务上有不足。因此,选择开源LLM与中文领域最好的embedding模型结合,采用常规的langchain+openAI技术框架,性能会下降很多。

Главная - Вики-сайт
Copyright © 2011-2024 iteam. Current version is 2.139.0. UTC+08:00, 2024-12-26 03:43
浙ICP备14020137号-1 $Гость$