话题公司 › 腾讯

公司:腾讯

关联话题: Tencent、微信、QQ

腾讯控股有限公司(英语:Tencent Holdings Limited),简称腾讯,是中国一家跨国企业控股公司,为中国大陆规模最大的互联网公司,1998年11月由马化腾、张志东、陈一丹、许晨晔、曾李青5位创始人共同创立,总部位于深圳南山区腾讯滨海大厦。腾讯业务拓展至社交、金融、投资、资讯、工具和平台等不同领域,其子公司专门从事各种全球互联网相关服务和产品、娱乐、人工智能和技术。目前,腾讯拥有中国大陆使用人数最多的社交软件腾讯QQ和微信,以及最大的网络游戏社区腾讯游戏。在电子书领域 ,旗下有阅文集团,运营有QQ阅读和微信读书。

腾讯于2004年6月16日在香港交易所挂牌上市,于2016年9月5日首次成为亚洲市值最高的上市公司,并于2017年11月21日成为亚洲首家市值突破5000亿美元的公司。2017年,腾讯首次跻身《财富》杂志世界500强排行榜,以228.7亿美元的营收位居478位。2021年腾讯因财付通业务,也受到了国家金融机构的监管风暴影响,一度被重罚股价大跌,直到2023年整顿完成后才重回世界十大。

香港财经界把阿里巴巴、腾讯、美团点评、小米四只中国大陆科技股的英文名称首个字母,合称“ATMX”股份。

大模型LangChain框架基础与使用示例

LangChain已经成为当前 LLM 应用框架的事实标准,这篇文章就来对 LangChain 基本概念以及其具体使用场景做一个整理。

ChatGPT一句话生成可视化图表

本文将 ChatGPT 接入图表配置化工具,支持用一段话描述图表信息,生成图表后直接进入配置页面,输入一句话生成图表内容,并可进行配置和导出。

语音生成口型与表情技术的演进与未来

近年来越来越多的超写实角色出现在游戏中,他们通常采用照扫(3D photogrammetry scanning)为基础对真人模特进行建模、加工,在满足游戏艺术效果的同时尽可能还原人物特别是其面部的细节特征,使得玩家能够获得更真实的角色扮演体验。

ExoPlayer 多路流切换

国内互联网的发展的过程中,无论是3G、4G还是5G时代,甚至是在可见的未来nG时代,音视频领域一直自始至终参与其中,编解码标准也升级了一版又一版,和音视频的相关应用领域从传统的播放转为互动直播。从另一个方面,伴随中国的互联网发展的每一个过程,从高昂且卡慢流量资费到VIP、SVIP、SSVIP......,再到即将到来的人工智能和Web 3.0 ,必然也少不了音视频。接下来需要考虑你的钱包还能支撑多久,是不是已经准备好了?

音视频应用如腾讯视频、爱奇艺、B站、抖音、快手等大厂都支持码流切换,尤其是B站在码流切换和编解码器这方面玩的也是很溜,这类应用都可以很平滑的切换,当然各大厂的服务后台支持也很完善,HLS、DASH等自适应流支持的很完美。伴随着大环境的问题和市场需求,以及降本增效的影响,需要支持4K/1080P/720P/480P、音质切换、原伴唱切换的应用来说,如果受限于HLS和DASH支持不完善情况,这个难度相对来说还是比较高的。那有没有其他可行的方案呢 ?答案是肯定的,先来看看常见的切码流方案。

腾讯 13 年,我所总结的Code Review终极大法

谚语曰: “Talk Is Cheap, Show Me The Code”。知易行难,知行合一难。嘴里要讲出来总是轻松,把别人讲过的话记住,组织一下语言,再讲出来,很容易。设计理念你可能道听途说了一些,以为自己掌握了,但是你会做么?有能力去思考、改进自己当前的实践方式和实践中的代码细节么?不客气地说,很多人仅仅是知道并且认同了某个设计理念,进而产生了一种虚假的安心感——自己的技术并不差。但是他根本没有去实践这些设计理念,甚至根本实践不了这些设计理念,从结果来说,他懂不懂这些道理/理念,有什么差别?变成了自欺欺人。

代码,是设计理念落地的地方,是技术的呈现和根本。同学们可以在 review 过程中做到落地沟通,不再是空对空的讨论,可以在实际问题中产生思考的碰撞,互相学习,大家都掌握团队里积累出来最好的实践方式!当然,如果 leader 没有时间写代码,仅仅是通过 review 代码指出团队内其他同学某些实践方式不好,需要给出建议的话,leader 本身也需要沉淀很多相关思考。

iOS点九图NinePatch解析

iOS中解析Android点九图(NinePatch)格式,获取其可拉伸区域,用于做图片的自适应区域拉伸,包含了完整的解析点九Chunk数据源代码。

我跟面试官说MySQL单表数据量不要超过两千万,面试官不信

作为一个合格的 DBA,在遇到线上单表数据量超过千万级别的时候,往往会建议用户通过分表来缩减单表数据量,当用户问为什么单表数据量不能超过千万时,DBA 往往会说:单表数据量超过千万,会影响查询性能。知其然而不知所以然,学习技术不能停留在表面,而是要进一步去深入挖掘其中的原理,这样才能不断进步和成长。回到这个问题:为什么单表数据量不能超过两千万,其中的依据是什么?

Golang高性能编程实践

go 中高性能编程是一个经久不衰的话题,本文尝试从实践及源码层面对 go 的高性能编程进行解析。

主流大语言模型的技术原理细节

  1. 比较 LLaMA、ChatGLM、Falcon 等大语言模型的细节:tokenizer、位置编码、Layer Normalization、激活函数等。
  2. 大语言模型的分布式训练技术:数据并行、张量模型并行、流水线并行、3D 并行、零冗余优化器 ZeRO、CPU 卸载技术 ZeRo-offload、混合精度训练、激活重计算技术、Flash Attention、Paged Attention。
  3. 大语言模型的参数高效微调技术:prompt tuning、prefix tuning、adapter、LLaMA-adapter、 LoRA。

比Mojo慢68000倍,Python性能差的锅该给GIL吗?

别了,Python GIL。

vscode插件体系详解

本文,我们从一个插件的结构开始,详述了插件的环境的创建以及插件的执行流程,希望能帮助大家对 vscode 的插件体系有清晰的理解。

如何管理一个技术团队

本文就团队管理聊管理,一个参照点是笔者带团队时的一些经验,另一个是管理方法论体系,争取做到理论和实际相结合。

用强化学习构建个性化的二维码

AIGC 在图像生成领域如火如荼,StableDiffusion 加各种 LORA,ControlNet,大家玩得不亦乐乎。但是基于扩散模型的方式,仍然存在很多问题,比如抽卡成功率过低,生成图像的细节仍需优化。具体到二维码生成,目前 hugging face 上的几个 ControlNet 确实可以生成不错的二维码和语义融合的图像,但是往往需要大量尝试,并且加上后续的一些迭代修改,才能保证生成的图像能被正确地识别为想要地二维码。我们通过强化学习加课程学习的方式,在保证出图效果的基础上,将二维码识别率从 20%提高至 80%。

微服务回归单体,代码行数减少75%,性能提升1300%

QQ浏览器是如何重构进化的?

C++知识体系总结:语言核心与代码工程

梳理一下C++的知识体系,温故而知新。

大模型算力推演优化实战

第一部分为看清:大模型的训练及推理过程是如何的,以及内部逻辑。

第二部分为理解:大模型的训练及推理和算力的关系。

第三部分为推演:用简单的公式量化大模型算力的需求。

第四部分为优化:我们如何提高算力利用率。

Home - Wiki
Copyright © 2011-2024 iteam. Current version is 2.125.1. UTC+08:00, 2024-05-18 01:19
浙ICP备14020137号-1 $Map of visitor$