微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

数据实时处理项目实战Spark Streaming第一天——概述

1、实时需求:
输入数据是以序列化的方式一个个输入并进行处理的,在开始时并不知道所有的输入数据。与离线计算相比,运行时间短,计算量相对较小,强调计算过程的时间要短,即所查当下给出结果。
2、数据流程设计:


数据来源有两部分:
第一部分是web/App交互的业务日志数据(暂不讨论这部分);
第二部分是前端埋点用户行为数据(即用户点击操作等产生的数据),这里采用模拟生成数据的方式,编写日志服务器Springboot程序接收数据,使用Nginx进行负载均衡,然后发送给kafka…(后面做到再讲)
本项目需求:

  1. 当日用户首次登陆(日活)分时趋势图,昨日对比
    从项目的日志中获取用户的启动日志,如果是当日第一次启动,纳入统计。将统计结果保存到 ES 中,利用Kibana 进行分析展示

    在这里插入图片描述

  2. 当日新增付费用户(首单)分析(ods+dwd)
    按省份|用户性别|用户年龄段,统计当日新增付费用户首单平均消费及人数占比;无论是省份名称用户性别、用户年龄,订单表中都没有这些字段,需要订单(事实表)和维度表(省份、用户)进行关联,形成宽表后将数据写入到 ES,通过 Kibana 进行分析以及图形展示。

    在这里插入图片描述

  3. 订单明细实付金额分摊体积交易额统计(dws)

    在这里插入图片描述

  4. ADS聚合及可视化(ads)
    以热门品牌统计为案例

    在这里插入图片描述

    采用到的技术:

    在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐