执行一个查询
$HIVE_HOME/bin/hive -e 'select a.col from tab1 a'
之后过程中,会在终端上显示mapreduce的进度,执行完毕后,最后把查询结果输出到终端上,接着hive进程退出,不会进入交互模式。
使用静音模式执行一个查询
$HIVE_HOME/bin/hive -S -e 'select a.col from tab1 a'
加入-S,终端上的输出不会有mapreduce的进度,执行完毕,只会把查询结果输出到终端上。这个静音模式很实用,,通过第三方程序调用,第三方程序通过hive的标准输出获取结果集。
使用静音模式执行一个查询,把结果集导出
$HIVE_HOME/bin/hive -S -e 'select a.col from tab1 a' > tab1.csv
不进入交互模式,执行一个hive script
$HIVE_HOME/bin/hive -f /home/my/hive-script.sql
hive-script.sql是使用hive sql语法编写的脚本文件,执行的过程和-e类似,区别是从文件加载sql.
但是sql文件,对于bash来说,不能使用变量,而使用-e的方式,可以在bash里使用变量(但是对于sql文件的形式,可以利用程序基于变量动态生成sql文件,再执行,稍微麻烦点)。
这里可以和静音模式-S联合使用,通过第三方程序调用,第三方程序通过hive的标准输出获取结果集。
hive交互式模式
当$HIVE_HOME/bin/hive执行时,没有-e或者-f选项,会进入交互式shell模式。
命令
描述
quit
exit |
退出交互式shell |
reset |
重置配置为默认值 |
set <key>=<value> |
修改特定变量的值 注意:如果变量名拼写错误,不会报错 |
set |
输出用户覆盖的hive配置变量 |
set -v |
输出所有Hadoop和Hive的配置变量 |
add FILE[S] <filepath> <filepath>*
add JAR[S] <filepath> <filepath>*
add ARCHIVE[S] <filepath> <filepath>* |
添加 一个或多个 file, jar, archives到分布式缓存 |
list FILE[S]
list JAR[S]
list ARCHIVE[S] |
输出已经添加到分布式缓存的资源。 |
list FILE[S] <filepath>*
list JAR[S] <filepath>*
list ARCHIVE[S] <filepath>* |
检查给定的资源是否添加到分布式缓存 |
delete FILE[S] <filepath>*
delete JAR[S] <filepath>*
delete ARCHIVE[S] <filepath>* |
从分布式缓存删除指定的资源 |
! <command> |
从Hive shell执行一个shell命令 |
dfs <dfs command> |
从Hive shell执行一个dfs命令 |
<query string> |
执行一个Hive 查询,然后输出结果到标准输出 |
source FILE <filepath> |
在CLI里执行一个hive脚本文件 |
例子
hive> set mapred.reduce.tasks=32;
hive> set;
hive> select a.* from tab1;
hive> !ls;
hive> dfs -ls;
分享到:
相关推荐
hive基本命令行操作
Hive 分析搜狗搜索日志与结果可视化,利用 hive 命令行完成搜狗日志各项数据分析,使用 Python 进行数据可视化。主要步骤 包括:安装部署 Hive、启动 Hadoop 集群、进入 Hive 命令行、创建数据库和数据表、加载 或...
背景:由于Hive需要开启...使用root用户登录,进入Hive命令行界面。 执行 create database test; 发现报错: Authorization failed:No privilege 'Create' found for outputs { }. Use SHOW GRANT to get more details
Hive学习基础资料,基本操作命令,创建表格,HIve命令行
我们可以先打印在hive命令行,然后使用脚本拼装成insert语句,进行数据构造。 手动copy到python脚本进行sql语句构造: def transformString(s): list_s = s.split('\t') print(len(list_s)) s_new = '' for item in...
HiveCLI和Beeline命令行的基本使用,基础篇
CLI,即Shell命令行 JDBC/ODBC 是 Hive 的Java,与使用传统数据库JDBC的方式类似 WebGUI是通过浏览器访问 Hive 本文主要介绍的就是第二种用户接口,直接进入正题。 1、Hive 安装: 1)hive的安装请参考网上的相关...
大数据常用组件 Hue的常见问题解决方案,包涵大部分常见Hue的问题整理,供参考
命令行显示当前数据库- hive thrift服务xml- hiveserver2操作日志位置xmlhive下spark相关配置。
命令行模式,或者说目录模式,可以使用hive 执行命令。 选项说明: -e : 执行短命令 -f : 执行文件(适合脚本封装) -S : 安静模式,不显示MR的运行过程 -hivevar : 用于定义hive运行时的变量替换 ,专门...
如果不知道此表是什么类型的表的话,可以在hive的命令行里打desc formatted table_name查看TABLE TYPE行查看;如果需要创建外部表则需要在创表的语句指定为external,如:create external table table_name。 案例:...
Hive CLI 和 Beeline 命令行的基本使用 Hive 常用 DDL 操作 Hive 分区表和分桶表 Hive 视图和索引 Hive 常用 DML 操作 Hive 数据查询详解 Spark、Storm、Flink、HBase、Kafka、Zookeeper、Flume、Sqoop等技术的学习
Hive CLI 和 Beeline 命令行的基本使用 Hive 常用 DDL 操作 Hive 分区表和分桶表 Hive 视图和索引 Hive 常用 DML 操作 Hive 数据查询详解 三、Spark Spark Core : Spark 简介 Spark 开发环境搭建 弹性式数据集 RDD ...
该资源真实可靠,代码都经测试过,能跑通。 快速:Apache Spark以内存计算为核心。 通用 :一站式解决各个问题,ADHOC SQL查询,流计算,数据挖掘,图计算完整的...提供了命令行工具和JDBC驱动程序以将用户连接到Hive。
CLI 和 Beeline 命令行的基本使用 常用 DDL 操作 分区表和分桶表 视图和索引 常用 DML 操作 数据查询详解 三、Spark Spark Core Spark SQL Spark Streaming 五、Flink 核心概念综述 开发环境搭建 Data Source Data ...
Hive CLI 和 Beeline 命令行的基本使用 Hive 使用 DDL 操作 Hive 分区表和分区表 Hive 视图和索引 Hive 使用 DML 操作 Hive数据详细查询解 三、火花 火花核心: 斯帕克简介 Spark开发环境搭建 弹性式数据集 RDD RDD...
一款可以连接Hive,Mysql等等的数据库可视化工具,由于完全是用Java开发的客户端,安装的时候需要用命令行来安装: java -jar squirrel-sql-3.9.0-standard.jar
以root用户进入mysql命令行:mysql -uroot -p(提示输入密码) 4.创建hive的元数据库:create database metahive【元数据库名metahive】 5.创建hive用户:create user hive@‘localhost’ identified by ...
HDFS,HBase,Hive,Zookeep,Yarn,HadoopLoader,Storm,Kafka,Spark等命令实例,系统全面。
从命令行运行“ mvn软件包”。 将jar“ target / brickhouse- <版本号> .jar”添加到您的HIVE_AUX_JARS_FILE_PATH,或使用“ add jar”命令从Hive CLI将其添加到分布式缓存中 源src / main / res