怎么获取query_dump文件

wget --user=root --password=1234 --post-file post_file http://fe_host:fe_http_port/api/query_dump?db=$db -O dump_file
user:用户名
password:用户密码
post_file:包含查询sql的文件
dump_file:导出的文件
$db:查询sql所属数据库

1赞
执行SQL后BE节点全部挂了
starrocks count distinct 明细模型查询假死状态
union all 多段sql,这些sql是并行执行的吗?
谁能帮看下这个SQL为什么查不出数据
primary模型元数据信息获取
2.4.1版本 fe的日志 一直有Connection reset by peer 日志错误是为什么
运行两天后be无法启动
查询 报错 NullPointerException
drop udf 报错
请问starrocks存储数据使用压缩了么?使用的什么压缩?可以更改么?
[问题排查]BE Crash
开启黑名单DATAX同步StarRocks报错
版本 2.4.3 colocate_join 构建的视图,查询条件异常
版本2.4.1 be 节点全部cpu 升高,重启后下降
使用jdbc执行某个sql时报错:Not found dict for cid
SR从2.0.9版本 跨版本升级到2.4.1后,建表异常
pipeline调度问题出现sql一直查询超时
2.4.1 不能创建多表物化视图吗,两个表都是主键模型的表
dynamic add partition failed: Range
stargo导入已有的集群,密码必须设置为空
dashboard的query一直无数据
IN个数超过1000多,查询数据不正确
broke load导入数据失败,原因是磁盘满了,怎样删除错误的数据
be 副本无法同步,日志version not found,has missed version
flink 1.14.5。写入sr 2.4.4版本 突然报超时
be每天凌晨俩点假死,导致前段查询一分钟无法获取数据
StreamLoad事务接口
2.4.3 数据join异常
升级后为什么原先版本的视图不可以用
查询语句执行不正确
primary key 表执行更新语句后,数据范围差不多100万条,be挂了,并且无法重启
Error: NULL value in non-nullable column '__op'
MySQL client版本升级
单表千万查询性能低
group by grouping sets() 计算结果不准确问题
insert SQL执行报错Unknow error
从 MySQL 实时同步-Flink写入StarRocks时报错
使用flink写入数据后后be无法启动
通过jdbc或StreamLoad向StarRocks中写入数据并查询后导致BE崩溃
【be】be crash
SQL语句like匹配出了null值
sr假死 所有表打不开
2.5.4升级3.0正式版(非存算分离集群)BE挂一台 重启后又挂 streamload BE节点
2.3.10版本 be崩溃以及几个fe问题请教
left join结果不对
sql 执行报错 java.lang.IllegalStateException: null
升级2.4.5之后be内存变大,集群稳定性变差
【无内存信息】fe.audit.log没有MemCostBytes字段
2.4.3版本be节点CPU飘升到80% 一直不降
【磁盘】磁盘空间未释放
com.starrocks.journal.JournalInconsistentException: failed to load journal type 118
异步物化视图未命中
【be】2.4.0 crash
be异常下线
2.4.5版本be节点进程在 但8040响应很慢
BE crash FailureSignalHandler
【救命】3.0.0-48f4d81 be频繁重启
【PERCENTILE_DISC 函数不可用】3.0版本
BE内存占用持续上升
pipeline FragmentInstancePrepare阶段耗时过长
集群磁盘空间异常上涨
Memory of Fragment fe620076-2b69-11ee-8516-b4055ddf14dd exceed limit. try consume:268435456
starrocks be 频繁宕机
[Coordinator.deliverExecBatchFragmentsRequests():1262] exec plan fragment failed, errmsg=exec rpc error. backend id: 10008, code: THRIFT_RPC_ERROR, fragmentId=F20, backend=***** 。 connections is not available,request timeout after 3000ms
udf函数解析异常
ERROR 1064 (HY000): Unexpected exception: Failed to fetch current notification event id, msg: Unable to instantiate com.starrocks.connector.hive.HiveMetaStoreThriftClient
mysql catalog 字符长度超出限制
StarRocks访问HMS Kerberos 认证失败
物化视图刷新报空指针异常
3.0.6 AuditLoader 导入失败
StreamLoad导入数据报错 column为关键字
SR3.0.3创建物化视图使用语法OR replace报错
查询存储在jfs上的hive外部表报错
【BE error】be集群扩容后sql查询报错
异步物化视图刷新报空指针异常
be多目录存储有大量旧版本数据未删除
jdbc 的ssl认证怎么配置
某个脚本报跑不了,fe报Connection reset by peer Thrift Error occurred during processing of message
存算分离版本, count(1) over(partition by )不加order by的时候查询报错
2.5.10 ARRAY_DISTINCT 函数偶发BE Crash
percentile_approx函数如何求多个百分位
导入任务一直失败/超时
mysql导入starRocks数据类型乱码报错怎么回事哦
3.1.1升至3.1.4,bitmap_from_string(group_concat(concat(user_id), ','))人数错误
StarRocks Stream Load 导入失败
be 节点挂掉了
更改磁盘类型可以吗?
fe挂掉,拉不起来,踢出去,加进来报错
2.5.16查询hive外部表不支持OBS
正则函数regexp_extract()使用问题,无法根据position取出数据
profile文件中CachedPagesNum什么意思呢
StarRocks执行挂载了同步物化视图的SQL后直接挂掉
be启动后,没有任何查询的情况下磁盘io占满
be 节点报:create table failed. status: Invalid argument: starlet err Invalid sys.root configuration provided!
刷新异步物化视图进度一直卡在96%,正常情况很快就会刷新完
Java UDF
swap替换底层异步物化视图后依赖底层化异步物化视图的异步视图刷新异常
【SR】id in方式查询问题
get extra file size in primary table fail, tablet_id
jdbc执行union all的sql报错有多个结果集
有一个be的io 监控图一直很高 基本90多了,改怎么排查
enable_async_write_back is disabled since version 3.1.4
SHOW ROUTINE LOAD执行超时
2.5.19FE 连接close fail
某个be节点停机维护,停机维护时长受什么参数影响,原理过程是什么
【2.5.11版本】磁盘IO占用一直保持在50%-60%
物化视图改写失败
物化视图改写有时候会报错ERROR 1064(HY000)Invalid plan
be节点频繁宕机
starRocks 定时备份方案如何做
物化视图刷新报错
使用case when在common sub expression优化时结果出错
export数据到oss报错
k8s operator方式启动3.0.0以上版本,cn都会coredump
窗口函数结果不正确 sum(b) over(order by a rows between 1 following and 1 following)
operator could only be used for json column, but got
be 节点宕机后不能启动
查询sql大小限制(query is too large)
INSERT OVERWRITE SELECT 连接超时?

通过curl 命令获取: curl -u root:1234 -T post_file -XPOST http://fe_host:fe_http_port/api/query_dump?db=$db -o dump_file

有文档说明,query_dump文件如何分析吗?

query dunp 是通过建表信息,还有查询语句,但无实际数据。在一些sql出现bug等场景中,可以通过提供query_dump给我们以便进行复现。

1赞