专注app软件定制开发Flink高手之路:Flink的环境搭建

一、Flink专注app软件定制开发的安装模式

1、local(本地)

专注app软件定制开发本地单机模式,专注app软件定制开发一般用于测试环境是否搭建成功,很少使用

2、standload(独立集群模式

flink自带集群,开发测试使用

StandAloneHA:独立集群的高可用模式,也是flink自带,用于开发测试环境

3、on (flink on yarn)

计算资源统一由hadoop yarn管理,生产环境使用

二、Local模式下的安装

1、下载

 

 2、上传文件

上传到hadoop001

3、解压

[root@hadoop001 software]# tar -xzvf flink-1.12.2-bin-scala_2.11.tgz -C /export/servers/

4、查看文件目录

5、修改环境变量

[root@hadoop001 software]# vi /etc/profile

 6、使环境变量起作用

[root@hadoop001 software]# source /etc/profile

7、查看安装成功的flink

 三、启动scala sell 交互界面

[root@hadoop001 flink-1.12.2]# start-scala-shell.sh local

1、scala命令行示例——单词计数

准备好数据文件

单词计数

benv.readTextFile("/root/a.txt").flatMap(_.split(" ")).map((_,1)).groupBy(0).sum(1).print()

 

Ctrl+d退出

 

四、启动flink本地集群

1、启动local本地模式

只有hadoop001上有节点

2、使用webui查看

hadoop001:8081

3、Local集群上测试运行任务——单词计数

1)准备jar包

2)提交任务

3)在webui查看完整任务过程

4)查看结果

 

五、Standalone模式安装 

1、集群规划

JobManager

TaskManager

hadoop01

y

y

hadoop02

n

y

hadoop03

n

y

 2、修改Flink配置文件

1)修改flink-conf.ymal配置文件

 

 2)Master

3)workers

 

4)环境变量

 

3、分发文件

1)分发flink 

[root@hadoop001 servers]# scp -r flink-1.12.2/ hadoop002:$PWD

[root@hadoop001 servers]# scp -r flink-1.12.2/ hadoop003:$PWD

2)分发环境变量

4、使环境变量起作用

[root@hadoop001 servers]# source /etc/profile

5、启动flink集群

 6、webui查看

7、启动历史服务器

1)上传连接器

 

 2)启动historyserver服务

8、历史服务器webui查看

 

9、Standalone测试任务-单词计数

1)带参数提交任务

flink run examples/batch/WordCount.jar --input hdfs://hadoop001:9000/input/ --output hdfs://hadoop001:9000/output/result.txt

2)出错

3)添加hadoop classpath配置

[root@hadoop001 flink-1.12.2]# hadoop classpath

4)重新运行

flink run examples/batch/WordCount.jar --input hdfs://hadoop001:9000/input/ --output hdfs://hadoop001:9000/output/result.txt

 六、Standalone-HA模式安装

1、集群规划

JobManager     TaskManager

hadoop01       y                y

hadoop02       Y                y

hadoop03       n                y

2、停止flink集群

3、修改flink配置文件

 

 

4、修改master文件

 

5、同步配置文件 

 

6、修改hadoop002上的flink-core.yaml

 

7、重新启动flink集群 

8、相关进程未启动

因为缺少flink整合hadoop的jar包,需要从flink官网下载,放入flink的lib目录,并分发至其他节点

重新启动

 

9、Flink的webui查看

 

 七、Flink on yarn的安装

1、修改yarn-site.xml配置文件

2、分发配置文件

 

 3、启动相关服务

Zookeeper

dfs

yarn

flink

historyserver

4、Session模式提交任务

1)开启会话

[root@hadoop001 bin]# yarn-session.sh -n 2 -tm 800 -s 1 -d

-n:表示申请的容器,也就是worker的数量,也即cpu的核心数

-tm:表示每个worker(taskManager)的内存大小

-s:表示每个worker的slot数量

-d:表示在后台运行

2)jps

3)查看yarn的webui

 

4)提交任务-单词计数

 

5)查看任务完成

 

6)再提交一个任务

7)再次查看yarn的webui

8)关闭yarn-sesion

[root@hadoop001 batch]# yarn application -kill application_1649659166087_0001

 5、Per-job模式提交任务

1)提交任务

[root@hadoop001 batch]# flink run -m yarn-cluster -yjm 1024 -ytm 1024 WordCount.jar

-m:jobmanager的地址

-yjm:jobmanager的内存大小

-ytm:taskmanager的内存大小

2)查看yarn的webui

3)再次提交

4)查看jps情况

查看到没有相关进程,进程完成后会自动关闭

6、Flink提交参数任务总结

 

网站建设定制开发 软件系统开发定制 定制软件开发 软件开发定制 定制app开发 app开发定制 app开发定制公司 电商商城定制开发 定制小程序开发 定制开发小程序 客户管理系统开发定制 定制网站 定制开发 crm开发定制 开发公司 小程序开发定制 定制软件 收款定制开发 企业网站定制开发 定制化开发 android系统定制开发 定制小程序开发费用 定制设计 专注app软件定制开发 软件开发定制定制 知名网站建设定制 软件定制开发供应商 应用系统定制开发 软件系统定制开发 企业管理系统定制开发 系统定制开发