插入任务失败、数据丢失、启动客户端任务卡死

【详述】通过一个flink本地任务,往sr里插入500w的数据,结果插入到40w的时候,be提示插入任务取消,flink本地任务无异样,但是sr的数据量无更新,待600000毫秒后,flink任务插入sr任务超时告终。
【背景】本地flink任务插入sr 数据量500w
【业务影响】数据丢失,任务卡死
【StarRocks版本】例如:2.1
【集群规模】例如:1fe+3be
【机器信息】8c32g
【附件】
flink任务截图



sr任务报错

你好,看着是使用的insert into values()写入的?用的我们提供的flink-connector么

用的 flink-connector-starrocks-1.2.1_flink-1.12_2.11.jar

Caused by: org.apache.flink.util.SerializedThrowable: Timeout while offering data to flushQueue, exceed 600000 ms, see sink.buffer-flush.enqueue-timeout-ms。

报这个错误

你好,确认下flink机器和starrocks环境网络是通的吗?这个报错是启动任务就报错还是运行一段时间报错。