return new HiveMetaStoreClient(hiveConf); } catch (MetaException ex) { throw new CatalogException("Failed to create Hive Metastore client", ex); } } } 因此HiveCatalog.open导致HiveMetaStoreClient的创建。 那么对于Kerberos代理,则需要HADOOP_PROXY_USER这个变量。 HADOOP_PROXY_USER的运行时设置 Flink 的...
tableResult = tableEnv.executeSql(cmd); HiveCatalog 多租户和Kerberos 在这篇文章中,对Hive进行了修改,以支持Kerberos。 【Flink系列六】构建实时计算平台——Flink 1.10+通过Kerberos连接HiveCatalog 本篇文章将基于这个改动,提供多租户的思路。 HiveCatalog 类的源码如下: //org.apache.flink.table.catalog.hive....
TableEnvironment主要负责SQL解析,将SQL语句转换为内部可以执行的格式。执行过程涉及HiveCatalog。HiveCatalog实现多租户和Kerberos支持的思路基于对Hive 1.x的修改,通过回滚Hive 2.3.x版本以支持Kerberos代理功能。关键在于HiveCatalog底层使用了HiveMetastoreClientWrapper,依赖于HiveShimV100实现对Hive 1.x版本...
Hi,从你发的stacktrace来看,走到了set_ugi方法说明client认为server没有开启kerberos。确认一下你Hive...
Created By lujisen* @company ChinaUnicom Software JiNan* @date: 2020-03-01 07:47* @version: v1.0* @description: com.hadoop.ljs.flink.sql*/public class FlinkKafkaKerberosSQLConsumer {public static final String krb5Conf="D:\\kafkaSSL\\krb5.conf";public static final String kafkaJaasConf="D:...
flink任务内kerberos认证过期 flink代码做kerberos认证 kerberos,一种反人类的安全验证模式,在大数据领域居然用的很多。 elasticsearch,一种存储引擎。目前研究下来,flink和spark都是居于http方式去读写的。 HttpClient方式 public static HttpClient buildSpengoHttpClient() {...
在Flink SQL上使用带有Kerberos身份验证的Kafka数据源,Flink的本地测试已经通过,但当我将任务推到纱线上时,错误消息提示无法找到Kafka的JAAS文件! 与Flink SQL相关的代码如下: 代码语言:javascript 复制 create table source_sensor( id VARCHAR, ts bigint, vc double) WITH ( 'connector' = 'kafka', 'topic' ...
4. 集群未启用Kerberos 2与Hive集成说明及依赖准备 1.Flink支持的Hive版本如下: 注意:Hive不同版本与Flink的集成有不同的功能差异,是Hive本身支持的问题,目前CDP中的Hive版本为3.1.3000,并不在当前的支持列表中。 • 1.2及更高版本支持Hive内置函数
/to/kerberos/keytab # 与 keytab 关联的 Kerberos 主体名称 # security.kerberos.login.principal: flink-user # 以逗号分隔的登录上下文列表,用于提供 Kerberos 凭据(例如,`Client,KafkaClient`使用凭证进行 ZooKeeper 身份验证和 Kafka 身份验证) # security.kerberos.login.contexts: Client,KafkaClient...