SR2.1版本starroc-spark-connector,用sparkSQL创建DF失败问题

【详述】
使用官方提供的sr-spark-connector,spark读取多张表。df1.createOrReplaceTempView(“tb1”), df2–>tb2, df3–>tb3…
注册为临时表之后,tempDF = spark.sql(“select t1.a,t1.b,t2.c,t3.d from tb1 t1 left join tb2 t2 on t1.id=t2.id left join tb3 t3 on t1.id =t3.id”)
tempDF 会创建失败,详细报错信息见附件截图
注意: 单张表"select * from tb1" 有概率出错,一般都会正常工作。目前是多张表关联join 比报错
【导入/导出方式】
sr-spark-connector导入数据创建DF
【背景】
1.19.x正常,2.0.3 也能正常工作,今天SR升级到2.1.3后 大面积 报错
【业务影响】
【StarRocks版本】目前只试过2.1.3有问题
【集群规模】3fe(1 follower+2observer)+3be(fe与be混部)
【机器信息】无
【附件】

辛苦提供下建表语句