公司:腾讯
腾讯控股有限公司(英语:Tencent Holdings Limited),简称腾讯,是中国一家跨国企业控股公司,为中国大陆规模最大的互联网公司,1998年11月由马化腾、张志东、陈一丹、许晨晔、曾李青5位创始人共同创立,总部位于深圳南山区腾讯滨海大厦。腾讯业务拓展至社交、金融、投资、资讯、工具和平台等不同领域,其子公司专门从事各种全球互联网相关服务和产品、娱乐、人工智能和技术。目前,腾讯拥有中国大陆使用人数最多的社交软件腾讯QQ和微信,以及最大的网络游戏社区腾讯游戏。在电子书领域 ,旗下有阅文集团,运营有QQ阅读和微信读书。
腾讯于2004年6月16日在香港交易所挂牌上市,于2016年9月5日首次成为亚洲市值最高的上市公司,并于2017年11月21日成为亚洲首家市值突破5000亿美元的公司。2017年,腾讯首次跻身《财富》杂志世界500强排行榜,以228.7亿美元的营收位居478位。2021年腾讯因财付通业务,也受到了国家金融机构的监管风暴影响,一度被重罚股价大跌,直到2023年整顿完成后才重回世界十大。
香港财经界把阿里巴巴、腾讯、美团点评、小米四只中国大陆科技股的英文名称首个字母,合称“ATMX”股份。
最新AI叛变!除了祈祷,程序员还能做什么?
AI编程助手如GitHub Copilot和Cursor存在被恶意配置文件投毒的风险,黑客通过嵌入不可见字符的恶意提示词,使AI生成有害代码。程序员在使用这些被投毒的配置文件时,可能无意中引入XXE、DDoS、挖矿等安全漏洞,导致数据泄露或系统被攻击。建议程序员谨慎使用来源不明的配置文件,并在沙箱环境中测试AI生成的代码,以防范潜在风险。
AI 编程神器 Cursor 十大使用技巧:让代码更听你的话
AI辅助编程工具Cursor开创了“聊天式”编程新范式,通过自然语言与代码的交互,大幅降低了编程门槛。它提供多种模式支持,从简单代码补全到复杂任务分解,帮助开发者更高效地实现创意。Cursor模糊了产品经理、设计师与程序员的界限,推动软件开发流程的革新。其即时反馈与结构化表达,让编程更接近心流体验,提升创造力与工程效率。
MCP协议详解:一文读懂跨时代的模型上下文协议
MCP(Model Context Protocol)是Anthropic推出的开源协议,旨在实现大型语言模型与外部数据源和工具的无缝集成。它采用客户端-服务器架构,支持资源、提示和工具的标准化调用,提升模型的灵活性和安全性。通过MCP,开发者可以快速连接模型与多样化数据源,降低开发复杂度,推动AI应用的标准化和生态扩展。
万字长文,聊聊下一代AI Agent的新范式
Manus AI作为全球首款通用型AI Agent,展示了多Agent协同、记忆管理和端到端训练等技术的进化。它通过智能规划与执行复杂任务,提升了用户体验,但仍面临记忆与上下文管理的挑战。未来,AI Agent需强化自我评估、跨环境能力和自主学习,以应对更复杂的应用场景。AI时代,个人需转型为“AI领导者”,适应技术与工作模式的变革。
详解JavaScript各种算法在并行、并发、增量上的优化方案
JavaScript的垃圾回收机制采用分代布局,分为年轻代和老年代。年轻代使用Scavenger算法,通过标记、转移和指针更新快速回收短期对象。老年代则采用标记-清除算法,处理长期存活对象,并行、并发和增量优化减少了主线程阻塞。垃圾回收触发时机由内存状态动态决定,确保应用性能与内存效率的平衡。
一文看懂支付系统架构之第三方支付
在线支付起源于Paypal,解决了纸币不便和网络发展带来的支付需求。第三方支付作为中介,确保交易双方安全。生活中常见的支付方式包括分阶段电子钱包(如微信支付、支付宝)和穿透式电子钱包(如手机厂商支付)。备付金管理从分散到集中,由央行统一监管。支付模式从直联转向间联,通过网联和银联平台处理交易。清算、清分、结算构成了支付的核心流程。
从DeepSeek到Manus:如何实现本地LLM微调+联网开发?
本文深入探讨了AI大模型在本地微调和联网功能开发中的技术细节与应用场景。通过LLaMA-Factory框架,展示了如何将通用大模型微调为特定领域专家,并结合实际业务场景,如APK病毒检测、网址安全检测等,探索了AI在垂直领域的应用潜力。未来,AI技术将更加注重垂直领域的深耕与多模态应用的理性选择,推动技术与业务的深度融合。
前端已死命题背后:UI开发范式的底层变革
前端开发正面临AI时代的范式转移,"前端已死"的说法过于夸张,实则是开发模式的深刻变化。传统UI开发模式在AI时代暴露诸多痛点,数据驱动开发成为新趋势。它通过分层设计数据模型,将UI逻辑转移到数据层,提升开发效率和代码可维护性。数据驱动与AI深度融合,帮助开发者专注于业务逻辑,打造更智能高效的应用。
一文讲透大模型应用开发:新时代技术核心竞争力人人都能掌握!
大模型应用开发的核心在于利用LLM的理解和推理能力,通过Prompt Engineering与业务场景结合。开发流程包括设计交互、编写Prompt、调用外部工具等,支持Function Calling的模型可简化复杂任务。RAG技术通过检索增强生成,提升问答准确度。AI Agent和MCP协议则拓展了大模型的实际应用场景,使其能直接执行任务。开发者可参与Tool开发,推动AI生态建设。
充分理解C/C++重要概念:运行时库
C/C++运行时库是程序运行的基础支持,提供跨平台封装、内存管理、文件操作等功能。不同平台有各自的实现,如Linux的glibc、Windows的MSVC库。运行时库分静态和动态链接,静态链接减少依赖但增大体积,动态链接反之。开发中需注意多实例和多版本问题,避免内存分配与释放不一致,确保编译和运行时环境一致,以提升程序兼容性和稳定性。
万字长文解构DeepSeek V1/V2/V3/R1进化史:从算法革命到推理涌现!
DeepSeek系列模型通过多版本迭代不断提升性能。V1优化了预训练和对齐策略,V2引入MoE架构和MLA,显著提升效率,V3进一步扩展参数和数据,优化训练成本。R1系列通过强化学习增强推理能力,并探索小模型蒸馏。整体展示了从基础到高效的持续创新,为开源大模型发展提供了重要参考。
腾讯频道Feed流系统架构设计
腾讯频道面临千万级关系链和实时推送挑战,构建高性能Feeds流系统。通过三层架构设计,采用读写扩散混合方案,优化扩散量剪枝,解决超大社区场景下的空拉难题。子频道帖子列表、帖子广场和个人动态等复杂功能通过分而治之原则实现,确保系统高效稳定运行。
细致扒一下DeepSeek-R1论文到底讲了些什么
DeepSeek-R1通过大规模强化学习提升模型推理能力,无需依赖大量人工标注数据。其训练过程采用GRPO算法和规则奖励系统,优化模型性能。冷启动阶段引入少量高质量数据,进一步提升模型表现。实验显示,蒸馏技术能显著提升小模型推理能力,而纯RL训练则需更多计算资源。未来工作将探索更高效的训练方法和模型优化路径。
DeepSeek R1范式复现笔记
本文探讨了DeepSeek R1系列技术的复现与优化,重点分析了多个开源项目在数学和逻辑题领域的应用。通过实验验证,强化学习在提升模型推理能力方面效果显著,但小模型在复杂任务上表现有限。未来需优化RL框架,提升多机训练效率,并确保思维链质量不退化,以推动长思考模型在实际业务中的应用。
大模型Prompt技巧全解析
在AI大模型应用中,Prompt是引导模型解决实际问题的关键。通过明确指令、上下文、输入数据和输出指示,Prompt能精准调用模型能力。RTF、RISEN等框架帮助优化Prompt设计,提升模型在客服、推理等场景的表现。少样本提示、思维链提示等技术进一步增强模型理解与推理能力,确保输出准确可靠。掌握Prompt撰写原则,如明确指令和充足思考时间,能显著提升大模型的业务价值。
DeepSeek 提示词编写技巧典藏版!
DeepSeek结合提示词工程提升输出价值。使用万能Prompt框架,包括角色、问题、目标和要求四部分,帮助编写Prompt。通过RAG技术,提高大模型推理效果。Few-shot示例和记忆功能增强模型表现。专业领域需整理知识,优化Prompt可用大模型自动优化算法。调整温度和Top-P参数控制模型输出确定性。有效的Prompt管理和知识更新对大模型应用至关重要。