`
MyEyeOfJava
  • 浏览: 1124912 次
  • 性别: Icon_minigender_1
  • 来自: 北京
博客专栏
7af2d6ca-4fe1-3e9a-be85-3f65f7120bd0
测试开发
浏览量:70173
533896eb-dd7b-3cde-b4d3-cc1ce02c1c14
晨记
浏览量:0
社区版块
存档分类
最新评论

[Hadoop]Hive r0.9.0中文文档(三)之Hive相关命令

阅读更多
一、Hive命令选项
Usage:

Usage: hive [-hiveconf x=y]* [<-i filename>]* [<-f filename>|<-e query-string>] [-S]

  -i <filename>             Initialization Sql from file (executed automatically and silently before any other commands)
  -e 'quoted query string'  Sql from command line
  -f <filename>             Sql from file
  -S                        Silent mode in interactive shell where only data is emitted
  -hiveconf x=y             Use this to set hive/hadoop configuration variables. 
  
   -e and -f cannot be specified together. In the absence of these options, interactive shell is started.  However, -i can be used with any other options.

   To see this usage help, run hive -h


下面的例子是做一个命令行的查询:
$HIVE_HOME/bin/hive -e 'select a.col from tab1 a'

  
下面的例子是指定Hive配置查询:
$HIVE_HOME/bin/hive -e 'select a.col from tab1 a' -hiveconf hive.exec.scratchdir=/home/my/hive_scratch  -hiveconf mapred.reduce.tasks=32

  
下面的例子是将查询结果导入到文本文件:
$HIVE_HOME/bin/hive -S -e 'select a.col from tab1 a' > a.txt


下面的例子是使用SQL文件进行操作:
$HIVE_HOME/bin/hive -f /home/my/hive-script.sql


下面的例子是在进入交互式界面之前跑一个初始化的脚本:
$HIVE_HOME/bin/hive -i /home/my/hive-init.sql


二、hiverc file
如果没有-i参数,那么hive会直接进入命令行界面,同时会加载HIVE_HOME/bin/.hiverc and $HOME/.hiverc作为初始化所需要的文件


三、hive交互的Shell命令

Command	Description
quit	 Use quit or exit to leave the interactive shell.
set key=value	 Use this to set value of particular configuration variable. One thing to note here is that if you misspell the variable name, cli will not show an error.
set	 This will print a list of configuration variables that are overridden by user or hive.
set -v	 This will print all hadoop and hive configuration variables.
add FILE [file] [file]*	 Adds a file to the list of resources
list FILE	 list all the files added to the distributed cache
list FILE [file]*	 Check if given resources are already added to distributed cache
! [cmd]	 Executes a shell command from the hive shell
dfs [dfs cmd]	 Executes a dfs command from the hive shell
[query]	 Executes a hive query and prints results to standard out
source FILE	 Used to execute a script file inside the CLI.


例子:
  hive> set  mapred.reduce.tasks=32;
  hive> set;
  hive> select a.* from tab1;
  hive> !ls;
  hive> dfs -ls;


四、Hive日志

Hive使用Log4j写日志,这些日志将不会以标准输出方式进行输出,默认情况Hive将使用hive-log4j,配置文件在conf目录下,日志输出在 /tmp/$USER/hive.log 下,日志级别为WARN。

为了Debug,你可以修改日志的输出格式以及改变日志的输出级别,你可以在命令行下使用以下命令:

$HIVE_HOME/bin/hive -hiveconf hive.root.logger=INFO,console 


hive.root.logger 指定了日志的级别以及日志输出位置,输出在控制台。这样日志不会输出到文件中。

五、Hive 资源
hive可以管理查询有效的附加资源到Session中。任何本地的acessible文件会加入到这个session,hive加载这个文件到session中后可以进行相关的map/reduce任务,hive使用haddop cache来处理被加载的文件。

   ADD { FILE[S] | JAR[S] | ARCHIVE[S] } <filepath1> [<filepath2>]*
   LIST { FILE[S] | JAR[S] | ARCHIVE[S] } [<filepath1> <filepath2> ..]
   DELETE { FILE[S] | JAR[S] | ARCHIVE[S] } [<filepath1> <filepath2> ..] 


文件资源仅被添加到目标cache中。Jar资源将被添加到Java classpath中。ARCHIVE资源将被自动添加来描述他们。
例如:

hive> add FILE /tmp/tt.py;
hive> list FILES;
/tmp/tt.py
hive> from networks a  MAP a.networkid USING 'python tt.py' as nn where a.ds = '2009-01-04' limit  10;


如果命令在所有节点上均有效就没有必要加入到Session中. For example:

... MAP a.networkid USING 'wc -l' ...: here wc is an executable available on all machines
... MAP a.networkid USING '/home/nfsserv1/hadoopscripts/tt.py' ...: here tt.py may be accessible via a nfs mount point that's configured identically on all the 
cluster nodes.
分享到:
评论

相关推荐

    Hive和Hase配置

    配置hive-0.9.0和hbase-0.94.1结合使用,部分内容如下: 1.拷贝hbase-0.94.1.jar和zookeeper-3.4.3.jar到hive/lib下。 注意:如hive/lib下已经存在这两个文件的其他版本,建议删除后使用hbase下的相关版本。 //...

    hive-0.9.0

    hive-0.9.0 是一个安装好了的程序包 在安装好hadoop和mysql的机器上面解压了 配置了就可以直接使用、

    hive-0.10.0-cdh4.3.0.tar.gz

    hive-0.10.0-cdh4.3.0.tar.gz liux安装文件 64位

    Java通过JDBC连接Hive

    压缩包中包含Java通过JDBC连接Hive所需的jar包。包含有,antlr-runtime-3.0.1.jar;commons-logging-1.0.4.jar;hadoop-core-1.2.1.jar;hive-exec-0.10.0.jar;hive-jdbc-0.13.1.jar;hive-metastore-0.9.0.jar;hive-...

    JDBC_Hive.rar

    java连接jdbc使用到的13个jar包:commons-logging-1.0.4,hadoop_fat,hadoop-common-2.0.0-cdh4.7.0,hive-common-0.10.0-cdh4.7.0,hive-jdbc-0.10.0-cdh4.7.0,hive-metastore-0.10.0-cdh4.7.0,hive-service-0.10.0-...

    apache-tez-0.9.0-bin.tar.gz

    hive-1.2.1+tez-0.9.0+hadoop-2.7.7 hive-2.3.6+tez-0.9.0+hadoop-2.7.1 两种搭配均试过可行,之前配置的时候觉得与版本有很大关系,试过之后发现版本影响不大,还没发现有问题

    hadoop-cdh4.6配置文件

    hadoop-hbase-hive-zookeeper的cdh4.6.0和spark-0.9.0-incubating-bin-cdh4集群配置文件

    KMV的MATLAB的代码-Hive:蜂巢

    KMV的MATLAB的代码欢迎来到砖房 Brickhouse是Hive的UDF的集合,以提高开发人员的生产力以及Hive查询的可伸缩性和健壮性。 Brickhouse涵盖了广泛的功能...jar”命令从Hive CLI将其添加到分布式缓存中 源src / main / res

    hiveJDBcjar.rar

    commons-logging-1.1.3.jar commons-collections-3.1.jar hive-exec-0.13.1.jar hive-jdbc-0.13.1.jar hive-metastore-0.13.1.jar hive-service-0.13.1.jar libfb303-0.9.0.jar ...hadoop-common-2.4.0.jar

    KMV的MATLAB的代码-brickhouse:砖房

    KMV的MATLAB的代码欢迎来到砖房 Brickhouse是Hive的UDF的集合,以提高开发人员的生产力以及Hive查询的可伸缩性和健壮性。 Brickhouse涵盖了广泛的功能...jar”命令从Hive CLI将其添加到分布式缓存中 源src / main / res

    docker-hdp-spark:带有 Hortonworks HDP 2.1 和 Apache Spark 1.3.0 的 Docker 容器

    带有 HDP-2.1 和 Apache Spark-... 默认情况下, SPARK_HOME=/usr/lib/spark/1.3.0和 Apache Spark 1.3.0 构建时支持hive (Spark SQL)。 如何使用? docker pull ypandit/hdp-spark docker run -td ypandit/hdp-spark

Global site tag (gtag.js) - Google Analytics