如果是从MySQL客户端连接到StarRocks,连接后默认进入到default_catalog。 如果使用JDBC连接到StarRocks,连接时可通过default_catalog.db_name的方式指定要连接的数据库。 可选:执行以下命令,查看当前StarRocks集群中的所有数据库。 SHOW DATABASES; -- 指定Catalog名称 SHOW DATABASES FROM default_catalog; 可选:执行以...
引入 StarRocks 的 Catalog 的特性之后,在查询数据的时候,可以使用 SET CATALOG <catalog_name> 或者 SELECT * FROM <catalog_name>.<db_name>. 来切换 Catalog,进而实现查询 Default Catalog 内部表、External Catalog 外部表中的数据。为提升客户端使用数据模型的灵活性,我们在不改变原有 SQL 的前提下,实现...
首先createCatalog函数传入形参CreateCatalogStmt,从其中提取catalog名、catalog类型、配置connector的Properties属性;createCatalog函数首先查找catalogs是否已经存在这样的catalogName,如果没有则需要调用connectorMgr.createConnector(new ConnectorContext(catalogName, type, properties))对这样的catalog创建connector(这里connector和ca...
StarRocks支持联邦查询,即跨 catalog 查询数据 在查询语句中可通过catalog_name.db_name.table_name 的格式来引用目标数据。举例: 在其他目录下,对 hive_catalog 中的 hive_table 和 default_catalog 中的 olap_table 进行联邦查询。SELECT * FROM hive_catalog.hive_db.hive_table h JOIN default_catalog.olap_...
set catalog default_catalog;use orders;CREATE MATERIALIZED VIEW dws_order_aggregates_mv PARTITION BY str2date(order_date,'%Y-%m-%d') DISTRIBUTED BY HASH(`user_id`) BUCKETS 12 PROPERTIES ("replication_num" = "3") REFRESH ASYNC START('2024-08-01 04:00:00') EVERY (interval 1 day) as ...
如使用 JDBC 连接到 StarRocks,连接时即可通过 default_catalog.db_name 的方式指定要连接的数据库。 (可选)执行以下语句查看当前 StarRocks 集群中的所有 Catalog 并找到指定的 External Catalog。 SHOW CATALOGS; 1. (可选)执行以下语句查看指定 external catalog 中的数据库。
INSERT INTO my_catalog_oss.`default`.hourly_regional_salesSELECT TUMBLE_START(order_time, INTERVAL '5' MINUTE) AS event_time, u.region, CAST(SUM(o.order_amount) AS DECIMAL(10, 2)) AS total_salesFROM default_catalog.`default_database`.orders_kafka AS oJOIN default_catalog.`default_...
Internal Catalog:内部数据目录,用于存储StarRocks内部所有的数据库和数据表。您可以使用内部数据目录管理内部数据。例如,执行CREATE DATABASE和CREATE TABLE语句创建的数据库和数据表都会存储在内部数据目录中。 每个StarRocks集群都有一个默认的内部数据目录default_catalog。StarRocks暂不支持修改默认的内部数据目录的名称,...
Kerberos 安装:在 CentOS 7 的 ECS 上安装 Kerberos。krb5.conf 配置:配置 krb5.conf 文件,确保 default_realm 设置正确。keytab 文件:从 EMR 上拷贝 spark.keytab 文件到 ECS。验证:使用 kinit 和 klist 命令验证 keytab 文件是否配置成功。四、Trino 配置 Hive catalog 配置:Trino 的 Hive ...
StarRocks 能高效地分析本地和数据湖中的数据,支持 Iceberg External Catalog,无需数据迁移即可查询 Iceberg 数据。StarRocks 支持 Iceberg v1、v2 读写,并通过以下方式优化查询性能:元数据管理:通过元数据缓存减少 I/O 浪费,分布式 Job Plan 加速 Manifest 文件的并行读取与过滤,以及 Manifest Cache 降低解析...