Press "Enter" to skip to content

分类: Flink

Flink的一些实践示例

用例介绍: 从Kafka消费的一些接口日志,先对数据进行了过滤,然后将数据进行了3个维度的分析,分别是: 1.按照接口的维度统计调用量 2.按照应用的维度统计调用量和平均延迟 3.按照自然日来统计调用量

Leave a Comment

Flink 原理与实现:Window 机制

Flink 认为 Batch 是 Streaming 的一个特例,所以 Flink 底层引擎是一个流式引擎,在上面实现了流处理和批处理。而窗口(window)就是从 Streaming 到 Batch 的一个桥梁。Flink 提供了非常完善的窗口机制,这是我认为的 Flink 最大的亮点之一(其他的亮点包括消息乱序处理,和 checkpoint 机制)。本文我们将介绍流式处理中的窗口概念,介绍 F…

Leave a Comment

硬核!一文学完Flink流计算常用算子,Flink算子大全

直入正题! Flink和Spark类似,也是一种一站式处理的框架;既可以进行批处理(DataSet),也可以进行实时处理(DataStream)。 所以下面将Flink的算子分为两大类:一类是DataSet,一类是DataStream。 DataSet 一、Source算子 1. fromCollection fromCollection:从本地集合读取数据 例: 2. readTextFile …

Leave a Comment

Flink面试,看这篇就足够了 

概述 2019 年是大数据实时计算领域最不平凡的一年,2019 年 1 月阿里巴巴 Blink (内部的 Flink 分支版本)开源,大数据领域一夜间从 Spark 独步天下走向了两强争霸的时代。Flink 因为其天然的流式计算特性以及强大的处理性能成为炙手可热的大数据处理框架。 时至今日,Flink 已经发展到 1.9 版本,在大数据开发领域,面试中对于 Flink 的考察已经是大数据开发求职者…

Leave a Comment

使用idea配置一个maven的flink项目消费kafka数据进行流式处理

创建项目 idea新建项目,Archetype选择:org.apache.maven.archetypes:maven-archetype-quickstart 项目创建好之后,pom依赖补充一些flink相关的,日志相关的和打包相关的依赖: 这里是个简单聚合统计场景,按照接口统计每分钟的调用频次。 用maven进行项目打包之后会出来个几十兆的大的jar包,帮他上传到flink集群的job里面,然…

Leave a Comment