以下关于Hive SQL基本操作描述正确的是:()。
A.加载数据到Hive时数据必须是HDFS的一个路径
B.创建外部表必须要指定location信息
C.创建外部表使用external关键字,创建普通表需要指定internal关键字
D.创建表时可以指定列分隔符
A.加载数据到Hive时数据必须是HDFS的一个路径
B.创建外部表必须要指定location信息
C.创建外部表使用external关键字,创建普通表需要指定internal关键字
D.创建表时可以指定列分隔符
A.加载数据到Hive时数据必须是HDFS的一个路径
B.创建外部表必须要指定location信息
C.创建外部表使用external关键字,创建普通表需要指定internal关键字
D.创建表时可以指定列分隔符
A.sqoop可以将HQL/SQL的执行结果导入到Oracle或者Hive
B.不能大于1M
C.sqoop使用参数-m(即--num-mappers)进行导数时,分布在每一个map上的数据是均匀的
D.sqoop将数据导入Oracle时遇到值的长度超长,sqoop会继续将正常的数据导入Oracle
B、基本回退组件的安全评估要求:应测试评估对象的检查点保存(SAVEPOINT)机制,确认是否允许对复杂事务回退到原始事务保存点(即回滚部分SQL语句操作)
C、基本回退组件的安全评估要求:应测试评估对象的事务回退(ROLLBACK)机制,确认是否允许未提交数据库事务所有SQL语句的回滚操作
D、应测试评估对象的数据库服务器宕机等实例故障恢复功能
A.Hive
B.SparkSQL
C.Spark
D.MapReduce
A.SparkStreaming与Flink相比,时延更低
B.Flink流式处理引擎能够同时提供支持流处理和批处理应用的功能
C.checkpoint实现了Flink的容错
D.与FusionInghtHD中的Streaming相比,Flink具有更高的吞吐量
A.建立临时表,创建索引的操作,必须放在插入临时表数据之后,避免每插入一条数据维护一次索引
B.一次批量提交SQL的语句不应该超过500条,如果超过,需要分几次提交
C.对固定列临时表尽量使用会话级的临时表,临时表脚本不需要在PDM上进行维护
D.临时表使用完后,及时的删除
A.可以在一个会话中导入数据到多个表
B.可以使用expdp的导出文件做为sql*loader的导入文件
C.不能只导入部分数据
D.不可以在一个会话中导入多个文件的数据到一个表
A.视图是对表的复制产生的
B.视图不能删除,否则影响原来的数据文件
C.使用SQL对视图进行查询时必须事先打开该视图所在数据库
D.使用MODIFYSTRUCTURE命令修改视图结构