flinkcdc 实时读取mysql 写入starRocks

【详述】
按照官网案例 flinkcdc 实时读取mysql 写入starRocks,任务启动不报错,但是数据没写入starRocks
【导入/导出方式】
mysql 利用StarRocks-migrate-tools 实时导入 starRocks
【StarRocks版本】1.17
【flink版本】1.13.6
【集群规模】例如:2fe(1 follower+2observer)+4be(fe与be混部)
【机器信息】CPU虚拟核/内存/网卡,例如:16C/32G/万兆
flink jar:


StarRocks-migrate-tools 生成的脚本:

config_prod.conf (3.0 KB) starrocks-create.1.sql (500 字节) flink-create.1.sql (1.4 KB)

在fe日志目录下搜索下 grep 1538417 ./* 然后拿下日志文件吧。

在fe日志目录下搜索下 grep 1538417 ./*
log.txt (1.0 MB)

在 backend 名称为 11705 11702 11703 的 be 在 日志目录下 执行下 grep 1538417 ./* ,拿下日志发下吧。

11702.log (22.3 KB) 11703.log (22.8 KB) 11705.log (22.5 KB)

可以重新跑下flink么?感觉是偶发性的问题。

另外咱们这边 StarRocks 版本有点 低了,能辛苦做个升级么?

现在不确定是什么原因,升级也是可以的 。。。