目前Stream Load 支持两个数据格式:CSV(文本) 和 JSON 1.3 基本操作 1.3.1 创建导入 Stream load 通过 HTTP 协议提交和传输数据。这里通过 curl 命令展示如何提交导入。 用户也可以通过其他 HTTP client 进行操作。 curl --location-trusted -u user:passwd [-H ""...] -T data.file -XPUT http://fe_...
2. Stream Load 单次导入数据量超过阈值: 通过调大streaming_load_json_max_mb参数到 250M(默认 100M )后解决。 3. 副本不足写入报错:alive replica num 0 < quorum replica num 1 通过show backends发现有一台 BE 状态异常显示为 OFFLINE。查看对应的be_custom配置文件,发现其中存在broken_storage_path。进一...
由于默认的最大 Stream load 导入数据量为 10G,所以如果要导入超过 10G 的文件需要修改 BE 的配置 streaming_load_max_mb 比如:待导入文件大小为15G 修改BE 配置 streaming_load_max_mb 为 16000 即可。 Stream load 的默认超时为 300秒,按照 Doris 目前最大的导入限速来看,约超过 3G 的文件就需要修改导入任...
2. Stream Load 单次导入数据量超过阈值: 通过调大streaming_load_json_max_mb参数到 250M(默认 100M )后解决。 3. 副本不足写入报错:alive replica num 0 < quorum replica num 1 通过show backends发现有一台 BE 状态异常显示为 OFFLINE。查看对应的be_custom配置文件,发现其中存在broken_storage_path。进一...
Stream load 是一个同步的导入方式,用户通过发送 HTTP 协议发送请求将本地文件或数据流导入到 Doris 中。Stream load 同步执行导入并返回导入结果。用户可直接通过请求的返回体判断本次导入是否成功。 Stream load 主要适用于导入本地文件,或通过程序导入数据流中的数据。
root@ecs-lizuxian-mysql8-notdelete:~/python_test# curl --location-trusted -u {user}:{password} -H "label:test_json_20231214-001" -H "format:json" -H "fuzzy_parse" -H "exec_mem_limit: 5368709120" -H "read_json_by_line:true" -H "streaming_load_json_max_mb:5000" -T ./test...
1.Doris 写入是通过 Stream load HTTP 接口,需要保证数据源中 FE 或 BE 的 IP 或端口填写正确。 2.由于 Stream load 的原理是由 BE 发起的导入并分发数据,建议的导入数据量在1G到10G之间。由于默认的最大 Stream load 导入数据量为10G。 要导入超过10G的文件需要修改 BE 的配置streaming_load_max_mb。
选择“BE(角色) > 自定义”,在自定义参数“be.conf.customized.configs”中新增参数: streaming_load_max_mb:表示Stream Load的最大导入文件大小,默认值为10G,单位为MB。如果原始文件超过该值,则需要适当调整该参数值。
streaming_load_max_mb Stream load 的最大导入大小,默认为 10G,单位是 MB。如果用户的原始文件超过这个值,则需要调整 BE 的参数 streaming_load_max_mb。示例1: 以 "table1_20211207" 为 Label,使用本地文件 table1_data 导入 table1 表。本地文件 table1_data 以 , 作为数据之间的...
调整be 参数 : streaming_load_max_mb,建议超过需要导入的文件大小。 导入数据报错:“[-238]”? 原因:-238 错误通常出现在同一批导入数据量过大的情况,从而导致某一个 tablet 的 Segment 文件过多(由 )。 参数调优建议:可适当调大BE参数max_segment_num_per_rowset ,此参数默认值200,可按倍数调大(如400、...