Flink依赖环境
java
安装java-1.8.0-openjdk,过程略
ssh
配置ssh可免密互访,过程略
为了防止ssh的22端口被占用,一般可以自己重启一个sshd,关注/etc下的配置文件
1 | $ vim /etc/hosts.allow |
hadoop集群
提前配置好远程hadoop集群,假设namenode为hdfs://10.99.99.1:9000,配置过程略
zookeeper集群
提前配置好zk集群,假设zk集群10.99.98.1:2181,10.99.98.2:2181,10.99.98.3:2181,配置过程略
FLink配置及启动
节点信息及角色分配
下载flink-1.7.2-bin-hadoop28-scala_2.12.tgz,选用hadoop版本主要是为了支持hdfs连接,元信息及checkpoint需要hdfs,否则选用nfs也可以,但hdfs更好。另外flink-1.7.2-bin-scala_2.12.tgz仅支持single jobmanager,所以弃用。
配置环境变量
1 | $ export FLINK_HOME=/to/flink/path |
配置/etc/hosts
1 | # 假设5台机器,3个zk,3个jobmanager,5个taskmanager |
flink配置文件
需要修改conf下的masters,slaves,flink-conf.yaml,修改bin/config.sh
flink1.7.2/bin/config.sh
1 | # 添加下面两个 |
flink1.7.2/conf/masters
1 | flink1:8081 |
flink1.7.2/conf/slaves
1 | flink1 |
flink1.7.2/conf/flink-conf.yaml
1 | env.java.home: /usr/lib/jvm/jre-1.8.0-openjdk |
Flink启动
1 | $ $FLINK_HOME/bin/start-cluster.sh |