公司:腾讯
腾讯控股有限公司(英语:Tencent Holdings Limited),简称腾讯,是中国一家跨国企业控股公司,为中国大陆规模最大的互联网公司,1998年11月由马化腾、张志东、陈一丹、许晨晔、曾李青5位创始人共同创立,总部位于深圳南山区腾讯滨海大厦。腾讯业务拓展至社交、金融、投资、资讯、工具和平台等不同领域,其子公司专门从事各种全球互联网相关服务和产品、娱乐、人工智能和技术。目前,腾讯拥有中国大陆使用人数最多的社交软件腾讯QQ和微信,以及最大的网络游戏社区腾讯游戏。在电子书领域 ,旗下有阅文集团,运营有QQ阅读和微信读书。
腾讯于2004年6月16日在香港交易所挂牌上市,于2016年9月5日首次成为亚洲市值最高的上市公司,并于2017年11月21日成为亚洲首家市值突破5000亿美元的公司。2017年,腾讯首次跻身《财富》杂志世界500强排行榜,以228.7亿美元的营收位居478位。2021年腾讯因财付通业务,也受到了国家金融机构的监管风暴影响,一度被重罚股价大跌,直到2023年整顿完成后才重回世界十大。
香港财经界把阿里巴巴、腾讯、美团点评、小米四只中国大陆科技股的英文名称首个字母,合称“ATMX”股份。
AI研发新范式:基于技术方案全链路生成代码
腾讯广告审核团队探索AI Code新范式,通过技术规范+模板化+MCP工具集成,提升编码效率。AI生成代码采纳率达50%以上,研发时长减少30%。该范式强调技术方案与Prompt的标准化,结合AI自我总结,确保代码质量与可维护性,已在审核中心全面推广,未来将打通全链路协同,实现端到端一站式研发。
浅谈设计视角下的数据解读
【数据实验的理性指南】A/B测试是验证设计效果的关键工具,但需警惕数据陷阱!P值决定显著性,样本量影响结论可靠性,实验时长需避开周期干扰。分析时要对齐数据口径、排除用户偏见、关注分层数据。数据虽重要,但别让它束缚创新,更要警惕短期提升牺牲长期体验。电商场景中,精准匹配用户需求才能提升转化。理性看待数据,持续优化设计!
大厂P9:为什么大部分程序员成不了架构师?
AI时代,程序员的核心竞争力在于业务理解和架构设计能力。架构师与程序员在职责、行为和思维上存在本质差异,架构师需具备洞察力和战略思维。然而,教育体系缺乏架构设计系统培养,实战机会匮乏。程序员应主动学习架构设计方法论,选择有设计机会的职位,创造实践场景,以跨越认知、教育和机会三重龙门,实现从程序员到架构师的跃迁。
SPEC 为什么会失败?
AI辅助编码中,SPEC驱动开发是关键,但实践中常遇五大误区:背景缺失、评审缺位、过度设计、规约与实现解耦、流程形式化。应对策略包括建立项目指导原则、严格审查AI生成的SPEC、拆分SPEC追求确定性、管理变更保护规约、在高压下坚守SPEC流程。SPEC是保证AI编码质量的“规矩”,需在实践中不断摸索和迭代。
非专业也能看懂的AI大模型工作原理!
大语言模型将用户提问转换为矩阵,通过分词和嵌入将文本转为数字。Transformer架构中的自注意力机制让模型理解上下文,多头注意力则多角度捕捉信息。输出时,模型通过线性层和Softmax将隐藏状态转换为词汇概率,自回归生成完整回答。位置编码确保模型理解词序,长文本外推则扩展模型处理能力。实践中,优化上下文长度和多Agent协同可提升效率。
让AI智能体拥有像人类的持久记忆:基于LangGraph的长短期记忆管理实践指南
AI智能体的记忆机制是提升其智能表现的关键。LangGraph框架通过短期记忆(Checkpointer)和长期记忆(Store)实现上下文感知与知识持久化,支持数据库存储和语义检索。实战案例展示了如何结合MCP协议构建多智能体系统,集成中断机制与记忆管理,让AI在复杂任务中保持连贯性。记忆的修剪、删除与总结策略优化了交互效率,而Supervisor架构则协调多智能体协作,推动AI向更人性化方向发展。
构建知识闭环:用CodeBuddy打造自我进化的数据分析体系
QQ浏览器推荐架构团队通过CodeBuddy AI构建知识闭环体系,解决数据分析痛点。该体系包括知识沉淀、传递、生成、信赖和闭环五个环节,利用Git管理代码和口径定义,规范协作流程,通过AI自动生成SQL代码,大幅提升效率。AI生成的代码经过多层验证后重新沉淀,形成知识复利效应,推动团队能力持续增长,工作方式从重复劳动转变为知识积累。
推荐系统三十年:从协同过滤到大模型时代的技术编年史
推荐系统30年演进史:从协同过滤到生成式AI。1992年Tapestry首创协同过滤,2006年Netflix Prize推动矩阵分解成为黄金标准,2016年深度学习全面统治,Wide&Deep、DIN等模型重塑工业架构。2023年起,大语言模型带来范式转移,生成式推荐、提示学习等新技术涌现,Meta、快手等已实现落地。技术演进始终围绕解决数据稀疏、冷启动等核心问题展开,未来将向多模态、个性化LLM方向发展。
万字长文讲透LLM核心:Transformer架构原理解析
Transformer架构是大型语言模型(LLM)的核心,通过自注意力机制和多头注意力捕捉序列依赖关系。文章深入解析了Transformer的工作原理,包括分词、词嵌入、位置编码等关键步骤,并探讨了其在翻译任务中的应用。同时,介绍了当前开源LLM的架构创新,如MoE混合架构,提升了模型效率与性能。理解这些机制有助于更好地构建和应用LLM。
从CoT到AGI:深扒大模型LLM“深度思考”的技术演进
大模型通过深度思考展现复杂推理能力,其核心在于Transformer架构的自回归预测和足够大的参数规模。深度思考减少幻觉,提升模型推理准确性。CoT等技术通过外部引导释放模型潜力,RLHF则进一步对齐人类偏好。未来探索聚焦原子性思考、垂类结构和In-Context Learning新范式,推动AI向AGI迈进。
2025必看系列:AI如何重新定义研究?万字长文讲透Deep Research
AI研究新范式Deep Research崛起!从RAG到深度研究,AI正从被动检索升级为主动探索。四大核心模块——规划、问题演化、网页探索、报告生成——让AI像专家般拆解复杂任务。主流系统虽强,但数据单一性仍是痛点。腾讯Dola创新融合公私域数据,让分析更精准。这波AI进化浪潮,正在重塑研究方式!
AI时代,架构师还有存在必要吗?
AI正重塑世界架构,从单体应用到云原生再到AI时代,技术迭代催生认知型组织和超级个体。未来政府服务更个性化,企业转向AI赋能,个人需转型为“AI架构师”或文化引领者。技术维度上,操作系统和编程语言将更自然化,硬件与人体融合开启新可能。面对挑战,每个人都要以共建者姿态参与,用智慧架构智能未来。
深入AI Agent内核: Google gemini-cli 源码深度解构
gemini-cli 通过将大语言模型与命令行终端深度融合,重塑开发者工作流。其核心架构基于 ReAct 循环,支持自动化任务处理、代码库分析与多模态交互。gemini-cli 的工具调用与上下文管理机制展现了强大的扩展性与安全性,为构建终端 AI Agent 提供了系统化参考,推动开发者与智能体的无缝协作。
这大概是我见过最通俗易懂的AI发展历程科普详文了
AI从1956年诞生至今,经历了初生期、成长期到如今的爆发期,从规则式AI到深度学习大模型,逐步模拟人类智能。Transformer架构的出现推动了大模型的演进,ChatGPT、Stable Diffusion等应用展现了AI的潜力。智能体结合大模型,实现了自主决策与行动。未来,AI将成为人类的重要伙伴,持续拓展应用边界,推动技术革新。
Gemini 3实测:综合最强、代码最强、数学最强、多模态最强的六边形 AI 来了?
Google最新发布的Gemini 3模型在多个领域表现卓越,综合实力超越GPT-5.1和Claude Sonnet 4.5。其在数学推理、视频理解、编程能力及多模态任务上均展现出断代领先优势,尤其在Humanity’s Last Exam和GPQA Diamond等测试中表现突出。Gemini 3 Pro不仅具备强大的文本处理能力,还支持复杂任务的自动化执行,未来或将成为全能型AI应用的标杆。
Agent全面爆发!一文搞懂Agent开发核心链路
Agent作为人工智能领域的智能体,具备感知、决策、执行和进化的核心能力。其架构包括规划、记忆、工具调度等模块,通过大模型驱动实现自主任务处理。Agent可分为反思、工具调用、规划及多智能体协作四种形态,开发框架如AutoGen、LangGraph等各具优势。构建Agent需注重上下文工程、记忆系统及工具调度,评估则依赖特定Benchmark数据集。