公司:腾讯
腾讯控股有限公司(英语:Tencent Holdings Limited),简称腾讯,是中国一家跨国企业控股公司,为中国大陆规模最大的互联网公司,1998年11月由马化腾、张志东、陈一丹、许晨晔、曾李青5位创始人共同创立,总部位于深圳南山区腾讯滨海大厦。腾讯业务拓展至社交、金融、投资、资讯、工具和平台等不同领域,其子公司专门从事各种全球互联网相关服务和产品、娱乐、人工智能和技术。目前,腾讯拥有中国大陆使用人数最多的社交软件腾讯QQ和微信,以及最大的网络游戏社区腾讯游戏。在电子书领域 ,旗下有阅文集团,运营有QQ阅读和微信读书。
腾讯于2004年6月16日在香港交易所挂牌上市,于2016年9月5日首次成为亚洲市值最高的上市公司,并于2017年11月21日成为亚洲首家市值突破5000亿美元的公司。2017年,腾讯首次跻身《财富》杂志世界500强排行榜,以228.7亿美元的营收位居478位。2021年腾讯因财付通业务,也受到了国家金融机构的监管风暴影响,一度被重罚股价大跌,直到2023年整顿完成后才重回世界十大。
香港财经界把阿里巴巴、腾讯、美团点评、小米四只中国大陆科技股的英文名称首个字母,合称“ATMX”股份。
微信读书后台架构演进之路
微信读书后台架构历经十年迭代,从接入层到存储层构建了完整体系。RPC框架WRMesh解决了异构系统服务治理问题,书籍数据中台支持自签版权与内容管理,账号系统迁移至Paxosmemkv提升可用性,内容召回系统结合AI技术优化搜索体验。架构演进始终围绕提升服务稳定性与扩展性,适应业务发展需求。
0day漏洞量产?AI Agent“生产线”曝光
AI Agent通过多智能体协作系统,实现了0day漏洞的高效自动化挖掘。与传统工具相比,AI Agent在复杂代码和大型项目中的表现更优,准确率和效率显著提升。实战验证中,AI Agent在GitHub Top 1000项目中发现了247处有效漏洞,并在Langchain等大型项目中识别出潜在安全漏洞,展现了强大的分析推理能力。
微信自研高性能推理计算引擎 XNet-DNN:跨平台 GPU 部署大语言模型及优化实践
XNet-DNN是微信团队研发的全平台神经网络推理引擎,支持Apple、NVIDIA、AMD等主流GPU,覆盖Windows、Linux、MacOS等操作系统。通过RCI跨平台框架,XNet-DNN在推理效率、内存占用和包体大小上显著优于现有方案。其核心优化包括系统级架构调整和算子深度调优,尤其在GEMM/GEMV和FlashAttention-2算法上表现突出,实测性能在多平台上均领先业界。
架构师必备的服务架构性能优化大全!
提升服务性能的9大妙招:缓存为王,合理选用Redis或内存缓存;并行化处理I/O操作,缩短响应时间;批量化请求减少网络开销;数据压缩降低存储成本;无锁化设计减少竞争;顺序写优化磁盘I/O;分片化扩展存储与吞吐;精简请求避免冗余;池化复用资源。这些技巧在主流中间件中广泛应用,灵活运用可大幅提升系统效率。
快速理解热门LLM大语言模型
本文通俗解析了LLM、Transformer、Prompt等AI核心概念,重点介绍了自注意力机制、API使用、Function Calling、Agent、MCP和A2A等技术。通过示例展示了AI如何通过文字接龙生成回答,并探讨了AI在编程和日常工作中的潜在应用,预测未来AI将重塑行业,解放人类双手,处理重复性工作。
万字总结:腾讯会议后台告警治理实践——如何才能避免“事后诸葛亮”
告警治理是后台架构中的关键,但常面临告警泛滥或缺失的困境。通过规范错误码设计,腾讯会议团队实现了告警的精准覆盖与有效消音。采用三段式错误码结构,结合智能告警策略,成功将告警数量大幅降低。治理过程中,团队通过周会追踪告警处理进度,确保问题闭环,最终告警数量下降97.39%,显著提升了系统稳定性与团队效率。
MCP技术浪潮中的Agent应用开发新范式
MCP(模型上下文协议)标准化了AI应用与模型间的上下文信息交换,通过MCP Server、Client和Host等核心组件,简化了AI应用的开发与集成。太极平台利用MCP连接资源与工具,推动大模型潜能的释放,重塑Agent应用开发范式。MCP协议提升工具复用率,促进生态协作,但面临应用范围、行业标准和安全风险等挑战。
这篇AI Agent漫游指南,带你建立全面的科技史观
"类Agent"与"真Agent"模型正重构AI技术范式,强化学习驱动端到端训练成为新趋势。AI Agent具备记忆、工具使用和自主规划能力,通过ReAct框架实现任务执行。多Agent协作和Agentic Workflow提升复杂任务处理效率。DeepSeek R1和OpenAI O1等推理模型通过强化学习优化性能,模型即产品成为未来方向。Agent的社会化协同将复刻人类协作模式,推动AI生态发展。
Electron以慢著称,腾讯文档却能实现内存优化60%降幅?
腾讯文档桌面端新版本通过墓碑机制、内存清理与页面冻结等技术,显著优化了内存占用。Windows 版本内存占用下降约60%,从2.5G降至900M。优化措施包括区分文档前后台状态、使用 EmptyWorkingSet API 及 SetPageFrozen 方法,提升了活跃页面的运行效率,改善了用户体验。
实操干货!MCP Server开发从0到1
MCP协议是Anthropic提出的标准化AI大模型与外部数据源和工具连接的开放协议,被誉为“AI的USB-C端口”。它通过客户端-服务器架构,解决了LLM无法访问实时数据、执行外部操作及访问私有数据等痛点。MCP的生态潜力巨大,尽管处于发展初期,已在GitHub上获得20K星标。开发过程中需注意环境配置、调试技巧及错误重试机制,以提升工具稳定性。
腾讯网关TGW:用户无感知快速迁移及故障自愈能力
腾讯网关团队与清华大学合作的论文《TGW: Operating an Efficient and Resilient Cloud Gateway at Scale》入选2025 USENIX ATC。论文详细介绍了TGW云网关架构,具备无损快速迁移、故障自愈和高精度定位等核心能力,支持大规模云数据中心的高效运行。TGW已稳定运行8年,服务游戏、直播等业务,技术创新为行业提供了重要参考。
爆火MCP的来时路:LLM开启超进化,从函数调用到通用上下文协议
大语言模型(LLM)在信息更新和事实准确性上存在短板,函数调用(Function Calling)的引入让LLM突破纯文本交互,能与外部系统实时交互。模型上下文协议(MCP)进一步标准化了AI工具间的通信,降低了工具集成成本,推动AI应用生态发展。MCP通过客户端-服务器架构,简化了工具开发与集成,成为AI领域的“USB-C接口”。
LLM学习笔记:最好的学习方法是带着问题去寻找答案
大模型聊天过程分析:输入问题后,模型结合上下文和系统提示生成响应,通过神经网络预测下一个词,流式返回结果。预训练包括数据清洗、分词、模型架构选择和优化,生成基础模型。后训练通过监督微调、奖励模型和领域适应优化性能。强化学习提升模型推理能力,思维链增强可解释性。文件上传和网络搜索功能扩展了模型应用场景。
200K上下文突破:AI编程新星Augment崛起
AI编程新星Augment以65.4%的SWE-bench评分登顶,成为全栈式AI编程助手。其技术突破包括支持20万token上下文窗口和多环境深度集成,显著提升编码效率。然而,新式AI编程工具也带来复杂的安全风险,如恶意prompt、后门引入和MCP执行恶意命令。为应对这些挑战,建议采用多层安全架构、实时监控、加密存储和定期审计等措施,确保AI编程工具的安全使用。
AI Agent:四大核心能力详解与技术演进
智能体(Agent)正成为AI领域的焦点,2025年被视为其突破关键能力的关键年份。智能体具备感知、决策和执行能力,核心在于多模态理解、自主规划、工具调用和记忆增强。当前,智能体已在编程、调查等领域展现强大应用潜力,未来将在医疗、数据分析等专业领域持续拓展,推动人机协作进入新纪元。
微信专家:性能优化看这篇就够了!
性能优化是提升系统效率的关键。通过使用Class替代ProtoBuf、优化数据结构、采用jemalloc/tcmalloc、引入无锁设计等手段,可以显著提升程序性能。针对特定场景的定制化优化,如精简数据格式,也能带来巨大收益。此外,善用性能测试工具如perf和FlameGraph,持续监控和优化,确保系统高效稳定运行。