大数据之-Flink学习笔记

2023-09-18 15:11:18

Flink

Apache Flink — 数据流上的有状态计算。

Apache Flink 是一个框架和分布式处理引擎,用于对无界和有界数据流进行有状态计算处理。

任何类型的数据都以事件流的形式生成。信用卡交易、传感器测量、机器日志或网站或移动应用程序 2上的用户交互,所有这些数据都以流的形式生成。

数据可以作为无界有界流进行处理。

无界数据流:有定义流的开始,但是没有定义结束。会一直提供数据,没有结束。所以要一直连续的处理无界流,所以一旦有数据到来就要立即处理,不能等数据都到再处理,因为输入是无限的。处理无界数据通常需要按特定顺序(如数据引入的顺序),以便能够推断结果的完整性。

有界数据流:有具体的开始和结束。有界流的处理也称为批处理。有界数据可以等待所有数据到达之后再进行计算处理。有界数据不需要按顺序引入,因为可以对有界的数据集进行排序。

在这里插入图片描述
在这里插入图片描述

# 添加完这些依赖就可以使用Java代码使用Flink的流处理功能。

# 这个依赖项包含了Flink的流处理API和相关的类库。主要干活的
<dependency>
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-streaming-java</artifactId>
    <version>${flink.version}</version>
</dependency>

# Flink客户端库,用这个可以连接到Flink集群并提交或管理Flink作业。
<dependency>
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-clients</artifactId>
    <version>${flink.version}</version>
</dependency>

Flink部署

在这里插入图片描述

flink部署模式

在一些应用场景中,对于集群资源分配和占用的方式,可能会有特定的需求。Flink为各种场景提供了不同的部署模式,主要有以下三种:会话模式(Session Mode)、单作业模式(Per-Job Mode)、应用模式(Application Mode)。

它们的区别主要在于:集群的生命周期以及资源的分配方式;以及应用的main方法到底在哪里执行——客户端(Client)还是JobManager。

会话模式(Session Mode)

请添加图片描述

*0)集群规划*

表3-1 集群角色分配

节点服务器*hadoop**102**hadoop**103**hadoop**104*
角色充当JobManager和TaskManagerTaskManagerTaskManager

具体安装部署步骤如下:

*1)下载并解压安装包*

(1)https://flink.apache.org/downloads/ 下载安装包flink-1.17.0-bin-scala_2.12.tgz,将该jar包上传到hadoop102节点服务器的/opt/software路径上。

(2)在/opt/software路径上解压flink-1.17.0-bin-scala_2.12.tgz到/opt/module路径上。

[atguigu@hadoop102 software]$ tar -zxvf flink-1.17.0-bin-scala_2.12.tgz -C /opt/module/

*2)修改集群配置*

(1)进入conf路径,修改flink-conf.yaml文件,指定hadoop102节点服务器为JobManager

[atguigu@hadoop102 conf]$ vim flink-conf.yaml

修改如下内容:

# JobManager节点地址.

jobmanager.rpc.address: hadoop102

jobmanager.bind-host: 0.0.0.0

rest.address: hadoop102

rest.bind-address: 0.0.0.0

\# TaskManager节点地址.需要配置为当前机器名

taskmanager.bind-host: 0.0.0.0

taskmanager.host: hadoop102

(2)修改workers文件,指定hadoop102、hadoop103和hadoop104为TaskManager

[atguigu@hadoop102 conf]$ vim workers

修改如下内容:

hadoop102

hadoop103

hadoop104

(3)修改masters文件

[atguigu@hadoop102 conf]$ vim masters

修改如下内容:

hadoop102:8081

(4)另外,在flink-conf.yaml文件中还可以对集群中的JobManager和TaskManager组件进行优化配置,主要配置项如下:

l jobmanager.memory.process.size:对JobManager进程可使用到的全部内存进行配置,包括JVM元空间和其他开销,默认为1600M,可以根据集群规模进行适当调整。

l taskmanager.memory.process.size:对TaskManager进程可使用到的全部内存进行配置,包括JVM元空间和其他开销,默认为1728M,可以根据集群规模进行适当调整。

l taskmanager.numberOfTaskSlots:对每个TaskManager能够分配的Slot数量进行配置,默认为1,可根据TaskManager所在的机器能够提供给Flink的CPU数量决定。所谓Slot就是TaskManager中具体运行一个任务所分配的计算资源。

l parallelism.default:Flink任务执行的并行度,默认为1。优先级低于代码中进行的并行度配置和任务提交时使用参数指定的并行度数量。

关于Slot和并行度的概念,我们会在下一章做详细讲解。

*3)分发安装目录*

(1)配置修改完毕后,将Flink安装目录发给另外两个节点服务器。

[atguigu@hadoop102 module]$ xsync flink-1.17.0/

(2)修改hadoop103的 taskmanager.host

[atguigu@hadoop103 conf]$ vim flink-conf.yaml

修改如下内容:

# TaskManager节点地址.需要配置为当前机器名

taskmanager.host: hadoop103

(3)修改hadoop104的 taskmanager.host

[atguigu@hadoop104 conf]$ vim flink-conf.yaml

修改如下内容:

# TaskManager节点地址.需要配置为当前机器名

taskmanager.host: hadoop104

*4)启动集群*

(1)在hadoop102节点服务器上执行start-cluster.sh启动Flink集群:

[atguigu@hadoop102 flink-1.17.0]$ bin/start-cluster.sh

(2)查看进程情况:

[atguigu@hadoop102 flink-1.17.0]$ jpsall 

=============== hadoop102 ===============

4453 StandaloneSessionClusterEntrypoint

4458 TaskManagerRunner

4533 Jps

=============== hadoop103 ===============

2872 TaskManagerRunner

2941 Jps

=============== hadoop104 ===============

2948 Jps

2876 TaskManagerRunner

*5)访问Web UI*

启动成功后,同样可以访问http://hadoop102:8081对flink集群和任务进行监控管理。
请添加图片描述

这里可以明显看到,当前集群的TaskManager数量为3;由于默认每个TaskManager的Slot数量为1,所以总Slot数和可用Slot数都为3。

向集群提交作业

在上一章中,我们已经编写读取socket发送的单词并统计单词的个数程序案例。本节我们将以该程序为例,演示如何将任务提交到集群中进行执行。具体步骤如下。

*1**)环境准备*

在hadoop102中执行以下命令启动netcat。

[atguigu@hadoop102 flink-1.17.0]$ nc -lk 7777

*2**)**程序**打包*

(1)在我们编写的Flink入门程序的pom.xml文件中添加打包插件的配置,具体如下:

<build>
        <plugins>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-shade-plugin</artifactId>
                <version>3.2.4</version>
                <executions>
                    <execution>
                        <phase>package</phase>
                        <goals>
                            <goal>shade</goal>
                        </goals>
                        <configuration>
                            <artifactSet>
                                <excludes>
                                    <exclude>com.google.code.findbugs:jsr305</exclude>
                                    <exclude>org.slf4j:*</exclude>
                                    <exclude>log4j:*</exclude>
                                </excludes>
                            </artifactSet>
                            <filters>
                                <filter>
                                    <!-- Do not copy the signatures in the META-INF folder.
                                    Otherwise, this might cause SecurityExceptions when using the JAR. -->
                                    <artifact>*:*</artifact>
                                    <excludes>
                                        <exclude>META-INF/*.SF</exclude>
                                        <exclude>META-INF/*.DSA</exclude>
                                        <exclude>META-INF/*.RSA</exclude>
                                    </excludes>
                                </filter>
                            </filters>
                            <transformers combine.children="append">
                                <transformer
                                        implementation="org.apache.maven.plugins.shade.resource.ServicesResourceTransformer">
                                </transformer>
                            </transformers>
                        </configuration>
                    </execution>
                </executions>
            </plugin>
        </plugins>
    </build>

(2)插件配置完毕后,可以使用IDEA的Maven工具执行package命令,出现如下提示即表示打包成功。

-------------------------------------------------------------------

[INFO] BUILD SUCCESS

-------------------------------------------------------------------

打包完成后,在target目录下即可找到所需JAR包,JAR包会有两个,FlinkTutorial-1.0-SNAPSHOT.jar和FlinkTutorial-1.0-SNAPSHOT-jar-with-dependencies.jar,因为集群中已经具备任务运行所需的所有依赖,所以建议使用FlinkTutorial-1.0-SNAPSHOT.jar。比较大的带有依赖。

*3)**在Web* *UI上提交作业*

(1)任务打包完成后,我们打开Flink的WEB UI页面,在右侧导航栏点击“Submit New Job”,然后点击按钮“+ Add New”,选择要上传运行的JAR包,如下图所示。
在这里插入图片描述

JAR包上传完成,如下图所示:
在这里插入图片描述

(2)点击该JAR包,出现任务配置页面,进行相应配置。

主要配置程序入口主类的全类名,任务运行的并行度,任务运行所需的配置参数和保存点路径等,如下图所示,配置完成后,即可点击按钮“Submit”,将任务提交到集群运行。
在这里插入图片描述

(3)任务提交成功之后,可点击左侧导航栏的“Running Jobs”查看程序运行列表情况。
在这里插入图片描述

(4)测试

​ ①在socket端口中输入hello

[atguigu@hadoop102 flink-1.17.0]$ nc -lk 7777

hello

②先点击Task Manager,然后点击右侧的192.168.10.104服务器节点
在这里插入图片描述

​ ③点击Stdout,就可以看到hello单词的统计
在这里插入图片描述

​ 注意:如果hadoop104节点没有统计单词数据,可以去其他TaskManager节点查看。

(4)点击该任务,可以查看任务运行的具体情况,也可以通过点击“Cancel Job”结束任务运行。
在这里插入图片描述

*4**)命令行提交作业*

除了通过WEB UI界面提交任务之外,也可以直接通过命令行来提交任务。这里为方便起见,我们可以先把jar包直接上传到目录flink-1.17.0下

(1)首先需要启动集群。

[atguigu@hadoop102 flink-1.17.0]$ bin/start-cluster.sh

(2)在hadoop102中执行以下命令启动netcat。

[atguigu@hadoop102 flink-1.17.0]$ nc -lk 7777

(3)将flink程序运行jar包上传到/opt/module/flink-1.17.0路径。

(4)进入到flink的安装路径下,在命令行使用flink run命令提交作业。

[atguigu@hadoop102 flink-1.17.0]$ bin/flink run -m hadoop102:8081 -c com.atguigu.wc.SocketStreamWordCount ./FlinkTutorial-1.0-SNAPSHOT.jar

这里的参数 -m指定了提交到的JobManager,-c指定了入口类。

(5)在浏览器中打开Web UI,http://hadoop102:8081查看应用执行情况

用netcat输入数据,可以在TaskManager的标准输出(Stdout)看到对应的统计结果。
在这里插入图片描述

(6)在/opt/module/flink-1.17.0/log路径中,可以查看TaskManager节点。

[atguigu@hadoop102 log]$ cat flink-atguigu-standalonesession-0-hadoop102.out

(hello,1)

(hello,2)

(flink,1)

(hello,3)

(scala,1)

单作业模式(Per-Job Mode)

在这里插入图片描述

应用模式(Application Mode)

在这里插入图片描述

这里我们所讲到的部署模式,相对是比较抽象的概念。实际应用时,一般需要和资源管理平台结合起来,选择特定的模式来分配资源、部署应用。接下来,我们就针对不同的资源提供者的场景,具体介绍Flink的部署方式。

DataStream API

DataStream API是Flink的核心层API,使用API实现对数据流的计算和处理。

一个Flink程序,其实就是对数据流DataStream的各种转换。具体来说,代码基本上都由以下几部分构成:
在这里插入图片描述

/**
 * 计算单词出现个数
 *
 * flink处理无界数据流
 * 程序会一直运行,一有数据来就处理
 *
 * @author shkstart
 * @create 2023-09-10 16:44
 */
public class SocketStreamWordCount {
    public static void main(String[] args) throws Exception {

        // 1.创建flink流式处理环境 StreamExecutionEnvironment
        StreamExecutionEnvironment see = StreamExecutionEnvironment.getExecutionEnvironment();

        // 2.接收要待处理的数据
        DataStreamSource<String> dateStream = see.socketTextStream("192.168.239.128", 7777);

        // 3.处理数据 数据处理后格式:(word,2)单词和对应出现的次数
        /**
         * flatMap(FlatMapFunction<T, R> flatMapper)
         * 为数据流的每一个元素调用flatMapper
         */
        System.out.println("原始数据流:" + dateStream);

        // FlatMapFunction转换,处理数据流元素
        FlatMapFunction<String, Tuple2<String, Integer>> flatMapFunction = new FlatMapFunctionImpl();
        SingleOutputStreamOperator<Tuple2<String, Integer>> transformedDataStream =
                dateStream.flatMap(flatMapFunction);

        System.out.println("处理后的数据流:" + transformedDataStream);

        // 按照word分组 按string分组 将Integer累加
        SingleOutputStreamOperator<Tuple2<String, Integer>> sum = transformedDataStream.keyBy(data -> data.f0).sum(1);


        // 4.展示
        sum.print();

        // 5.执行 开始处理
        // 代码末尾需要调用 流式处理环境 的execute方法,开始执行任务
        see.execute();

    }
}

public class FlatMapFunctionImpl implements FlatMapFunction<String , Tuple2<String,Integer>> {


    /**
     * 转换数据流元素
     * @param value 输入的元素
     * @param out 输出的元素
     * @throws Exception
     */
    @Override
    public void flatMap(String value, Collector<Tuple2<String, Integer>> out) throws Exception {
        // 切分
        String[] words = value.split(" ");

        // 收集
        for (String word : words) {
            out.collect(Tuple2.of(word,1));
        }
    }
}

1、执行环境

Flink程序可以在各种上下文环境中运行:我们可以在本地JVM中执行程序,也可以提交到远程集群上运行。

不同的环境,代码的提交运行的过程会有所不同。这就要求我们在提交作业执行计算时,首先必须获取当前Flink的运行环境,从而建立起与Flink框架之间的联系。

DataStream API执行模式包括:流执行模式、批执行模式和自动模式。

流执行模式(Streaming)

这是DataStream API最经典的模式,一般用于需要持续实时处理的无界数据流。默认情况下,程序使用的就是Streaming执行模式。

// 流处理环境
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

批执行模式(Batch)

专门用于批处理(处理有界数据)的执行模式。

自动模式(AutoMatic)

在这种模式下,将由程序根据输入数据源是否有界,来自动选择执行模式。

批执行模式的使用。主要有两种方式:

(1)通过命令行配置

bin/flink run -Dexecution.runtime-mode=BATCH ...

在提交作业时,增加execution.runtime-mode参数,指定值为BATCH。

(2)通过代码配置

StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

env.setRuntimeMode(RuntimeExecutionMode.BATCH);

在代码中,直接基于执行环境调用setRuntimeMode方法,传入BATCH模式。

实际应用中一般不会在代码中配置,而是使用命令行,这样更加灵活。

2、数据源

从socket中读取数据

不论从集合还是文件,我们读取的其实都是有界数据。在流处理的场景中,数据往往是无界的。

我们之前用到的读取socket文本流,就是流处理场景。但是这种方式由于吞吐量小、稳定性较差,一般也是用于测试。

DataStream<String> stream = env.socketTextStream("localhost", 7777);
从Kafka读取数据

Flink官方提供了连接工具flink-connector-kafka,直接帮我们实现了一个消费者FlinkKafkaConsumer,它就是用来读取Kafka数据的SourceFunction。

所以想要以Kafka作为数据源获取数据,我们只需要引入Kafka连接器的依赖。Flink官方提供的是一个通用的Kafka连接器,它会自动跟踪最新版本的Kafka客户端。目前最新版本只支持0.10.0版本以上的Kafka。这里我们需要导入的依赖如下。

<dependency>

  <groupId>org.apache.flink</groupId>

  <artifactId>flink-connector-kafka</artifactId>

  <version>${flink.version}</version>

</dependency>

代码如下:

public class SourceKafka {
    public static void main(String[] args) throws Exception {

        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        KafkaSource<String> kafkaSource = KafkaSource.<String>builder()
            .setBootstrapServers("hadoop102:9092")
            .setTopics("topic_1")
            .setGroupId("atguigu")
            .setStartingOffsets(OffsetsInitializer.latest())
            .setValueOnlyDeserializer(new SimpleStringSchema()) 
            .build();

        DataStreamSource<String> stream = env.fromSource(kafkaSource, WatermarkStrategy.noWatermarks(), "kafka-source");

        stream.print("Kafka");

        env.execute();
    }
}

3、转换算子

基本转换算子(map/** filter**/** flat**Map)****

更多推荐

口袋参谋:新品上架如何做市场调查?这个方法超实用

很多商家在新品上架之前,都会对宝贝的市场行情进行调查分析,只有了解指定关键词下的行业市场数据,了解消费者需求,才能针对性的进行卖货。可是我们要是人工一点点去搜集,一点点去翻找,很多数据是没法进行人工去统计的,如果你要这样做的话,新品上架那是遥遥无期了。​那还有更好的办法吗?有些商家会专门去购买生意参谋里的市场洞察,对于

Linux cp命令使用指南:详细教程及实际应用场景解析

文章目录Linux中的cp命令使用指南1.简介1.1Linux操作系统简介1.2文件系统和目录结构1.3cp命令概述2.cp命令基本用法2.1复制文件2.2复制目录2.3复制多个文件或目录2.4递归复制2.5强制覆盖已存在文件2.6保留文件权限和属性3.高级用法3.1保留符号链接3.2仅复制更新的文件3.3拷贝到远程主

【Redis】深入理解 Redis 持久化机制 —— RDB 和 AOF

文章目录一、Redis的持久化二、RDB持久化机制2.1对RBD的认识RDB的概念RDB持久化机制的优缺点RDB的相关配置2.2RDB的触发时机2.2RDB的触发时机自动触发手动触发:SAVE和BGSAVE2.3RDB文件的处理保存RDB文件压缩RDB文件校验RDB文件三、AOF持久化机制3.1对AOF的认识AOF的概

【SLAM】视觉SLAM简介

【SLAM】视觉SLAM简介task04主要了解了SLAM的主流框架,清楚VSALM中间接法与直接法的主要区别在什么地方,其各自的优势是什么,了解前端与后端的关系是什么1.什么是SLAM2.VSALM中间接法与直接法的主要区别在什么地方,其各自的优势是什么?在SLAM(SimultaneousLocalizationa

Rsync学习笔记1

企业架构Web服务器的文件及时同步:1)能够理解为何要服务器的文件同步;2)能够简单描述实现文件同步的几种方式;3)能够实现服务器文件实时同步的案例;服务器同步文件的必要性:当业务代码发生改变,上传到web服务器的时候,因为架构已经不是单台服务器提供服务,而是由多台Web服务器提供服务,业务代码需要同时上传到多台Web

2023数学建模研赛华为杯E题思路-出血性脑卒中临床智能诊疗建模

E题出血性脑卒中临床智能诊疗建模三、请建模回答如下问题1血肿扩张风险相关因素探索建模。a)请根据“表1”(字段:入院首次影像检查流水号,发病到首次影像检查时间间隔),“表2”(字段:各时间点流水号及对应的HM_volume),判断患者sub001至sub100发病后48小时内是否发生血肿扩张事件。结果填写规范:1是0否

【Spring】BeanName 的自动生成原理

🎈博客主页:🌈我的主页🌈🎈欢迎点赞👍收藏🌟留言📝欢迎讨论!👏🎈本文由【泠青沼~】原创,首发于CSDN🚩🚩🚩🎈由于博主是在学小白一枚,难免会有错误,有任何问题欢迎评论区留言指出,感激不尽!🌠个人主页目录🌟一、默认name生成原理🌟二、id和name属性处理原理🌟一、默认name生成原理在

【C++深入浅出】日期类的实现

目录一.前言二.日期类的框架三.日期类的实现3.1构造函数3.2析构函数3.3赋值运算符重载3.4关系运算符重载3.5日期+/-天数3.6自增与自减运算符重载3.7日期-日期四.完整代码一.前言通过前面两期类和对象的学习,我们已经对C++的类有了一定的了解。本期我们的目标是实现一个完整的日期类,通过实现日期类的构造函数

蓝桥杯 题库 简单 每日十题 day7

01啤酒和饮料题目描述本题为填空题,只需要算出结果后,在代码中使用输出语句将所填结果输出即可。啤酒每罐2.3元,饮料每罐1.9元。小明买了若干啤酒和饮料,一共花了82.3元。我们还知道他买的啤酒比饮料的数量少,请你计算他买了几罐酒。#include<stdio.h>#include<stdlib.h>intmain()

基于SpringBoot的教师工作量管理系统

目录前言一、技术栈二、系统功能介绍管理员模块的实现教师模块的实现三、核心代码1、登录模块2、文件上传模块3、代码封装前言随着信息技术在管理上越来越深入而广泛的应用,管理信息系统的实施在技术上已逐步成熟。本文介绍了教师工作量管理系统的开发全过程。通过分析教师工作量管理系统管理的不足,创建了一个计算机管理教师工作量管理系统

深眸科技迭代深度学习算法,以AI机器视觉技术扩围工业应用场景

智能制造是制造业数智化转型升级的发展方向,在当前以高端装备制造为核心的工业4.0时代背景下,越来越多的制造企业意识到机器视觉对于提高效率、降低成本,从而提升企业效益的意义。目前,机器视觉已成为制造业迈向智能制造过程中极其关键的一项技术,且通过融合人工智能,能够实现该技术的再一次升级,以此切入更多差异化工业应用场景,并以

热文推荐