2022-01-26 16:30:00 ~ 2022-01-27 16:30:00
做品牌但不烧钱打广告,在中国行得通吗?
世界越来越复杂,“共创”可以带来的多元视角和相互理解显得异常珍贵,在过去一年,我们尝试在B端和C端研究项目中结合“共创工作坊”的方式,通过多角色的融合和共创,共同推动问题解决。
直营、渠道、中台,打造规模化增长的销售系统。
随着业务的不断扩张,⽤户体量增⼤,很多线上⽤户反馈的问题我们无法在本地复现,那么用户反馈的问题现场就显得尤为重要,所以日志库则是一个必不可少的基础库,快看应用每天产生的日志数据十分庞大,为了解决日志存在的丢失、写入效率、占用空间大以及Android、iOS平台差异等问题,KKLog日志库就此产生。
前端构建工具vite基于原生ES提供了丰富的内建功能和快速的模块热更新,本文主要介绍了vite在本地提供服务的基本原理和处理流程,如何利用中间件和插件机制提供开箱即用的配置。
本文主要阐述了针对贝壳IM单聊群聊消息的优化思路,通过压测、寻找瓶颈点、提出优化方案、验证优化方案、代码实现的多轮次迭代,最终实现了20倍以上的性能提升。
启动性能是 APP 使用体验的门面,启动过程耗时较长很可能导致用户使用 APP 的兴趣骤减,抖音通过对启动性能做劣化的 AB 实验也验证了其对于业务指标有影响显著。抖音拥有数亿的用户,启动耗时几百毫秒的增长就可能带来成千上万用户的留存缩减,因此,启动性能的优化成为了抖音 Android 基础技术团队在体验优化方向上的重中之重。
本文基于过往对抖音 Android 客户端做启动性能优化的实战经验总结提炼出普适性的方法论,并将该过程中沉淀的工具加以分享,希望能给大家带来一些新的思考。
优雅上下线可以分为三个角度。服务端的上线,服务端的下线,和客户端的容灾策略。
本文主要介绍常见的锁,以及synchronized、NSLock、递归锁、条件锁的底层分析。
本章内容将分享,vivo直播平台这2年相关的技术发展历程,希望大家对直播有一个基础的了解,如果有相关的同学刚刚开始从事直播相关业务的开发,能够给大家带来一些启发。
本文介绍了vivo评论中台在面对前台不同流量级别、不同数据量级的业务时,是如何通过流量隔离和数据隔离来保障中台的高可用,具有一定的行业通用性。
「小得物环境」是一套[全新搭建]独立[物理隔离]的[单地域]的[小流量][生产环境],覆盖了从网络、接入层、中间件、核心应用的系统和服务,为各类产品研发和业务发展的稳定性提供了丰富工具和应用场景。
随着营销3.0时代的到来,企业愈发需要依托强大CDP能力解决其严重的数据孤岛问题,帮助企业加温线索、促活客户。但什么是CDP、好的CDP应该具备哪些关键特征?本文在回答此问题的同时,详细讲述了爱番番租户级实时CDP建设实践,既有先进架构目标下的组件选择,也有平台架构、核心模块关键实现的介绍。
在庞大数据体系的质量保障过程中,沉淀出一套数据测试方法论,并与实践相结合,落地相关工具。
Have you heard that 33% of mobile users have text size adjustment enabled on their phones? According to this excellent research by Q42 conducted among more than 1 million Dutch users, many mobile users require text resizing in order to properly read on their mobile devices. While this large survey was conducted specifically in the Netherlands, the data are similar to what is observed across other countries around the world. Therefore, ensuring quality text resizing is vital for approximately one third of your users.
By introducing a plug-in-like architecture, we could reshape how teams contribute native features to our mobile app.
Our Apache Hadoop® based data platform ingests hundreds of petabytes of analytical data with minimum latency and stores it in a data lake built on top of the Hadoop Distributed File System (HDFS). We use Apache Hudi™ as our ingestion table format and Apache Parquet™ as the underlying file format. Our data platform leverages Apache Hive™, Apache Presto™, and Apache Spark™ for both interactive and long-running queries, serving the myriad needs of different teams at Uber.
Uber’s growth over the last few years exponentially increased both the volume of data and the associated access loads required to process it. As data volume grows, so do the associated storage and compute costs, resulting in growing hardware purchasing requirements, higher resource usage, and even causing out-of-memory (OOM) or high GC pause. The main goal of this blog is to address storage cost efficiency issues, but the side benefits also include CPU, IO, and network consumption usage.
We started several initiatives to reduce storage cost, including setting TTL (Time to Live) to old partitions, moving data from hot/warm to cold storage, and reducing data size in the file format level. In this blog, we will focus on reducing the data size in storage at the file format level, essentially at Parquet.
延迟满足感,自控,理性,反省,创新,学习。
你知道“water spider”和“swag bucks”是什么吗?这并不是奇奇怪怪的俚语,而是亚马逊员工自己的内部语言。许多公司都有一些不为人知的生产力测量方式和员工项目,而为了方便,这些公司往往会为这些项目冠上自己的独家术语。
关注公众号
接收推送