插入任务失败、数据丢失、启动客户端任务卡死

【详述】通过一个flink本地任务,往sr里插入500w的数据,结果插入到40w的时候,be提示插入任务取消,flink本地任务无异样,但是sr的数据量无更新,待600000毫秒后,flink任务插入sr任务超时告终。
【背景】本地flink任务插入sr 数据量500w
【业务影响】数据丢失,任务卡死
【StarRocks版本】例如:2.1
【集群规模】例如:1fe+3be
【机器信息】8c32g
【附件】
flink任务截图



sr任务报错

你好,看着是使用的insert into values()写入的?用的我们提供的flink-connector么

用的 flink-connector-starrocks-1.2.1_flink-1.12_2.11.jar

Caused by: org.apache.flink.util.SerializedThrowable: Timeout while offering data to flushQueue, exceed 600000 ms, see sink.buffer-flush.enqueue-timeout-ms。

报这个错误

你好,确认下flink机器和starrocks环境网络是通的吗?这个报错是启动任务就报错还是运行一段时间报错。

我也遇到了同样的错,flink作业运行一段时间后报错,写入批次间隔10s,批次量10万,数据量一天1000多万,sink.buffer-flush.enqueue-timeout-ms是默认的10分钟,checkpoint超时时间也是10分钟,checkpoint有时超时报楼上的这个错,有时正常checkpoint

这个问题有解决吗? 我在2.4.4也遇到了。 任务运行是好的 突然报错

麻烦发下flink日志 中该任务 返回的 json格式的信息