Hive的SQL语句和MySQL的SQL语法是一模一样的吗

2020-06-19 12:29发布

3条回答
慢半拍
2021-09-26 11:57

1、Hive不支持等值连接 
•SQL中对两表内联可以写成:
•select * from dual a,dual b where a.key = b.key;
•Hive中应为
•select * from dual a join dual b on a.key = b.key; 
而不是传统的格式:
SELECT t1.a1 as c1, t2.b1 as c2FROM t1, t2
WHERE t1.a2 = t2.b2

2、分号字符
•分号是SQL语句结束标记,在HiveQL中也是,但是在HiveQL中,对分号的识别没有那么智慧,例如:
•select concat(key,concat(';',key)) from dual;
•但HiveQL在解析语句时提示:
 FAILED: Parse Error: line 0:-1 mismatched input '' expecting ) in function specification
•解决的办法是,使用分号的八进制的ASCII码进行转义,那么上述语句应写成:
•select concat(key,concat('\073',key)) from dual;

3、IS [NOT] NULL
•SQL中null代表空值, 值得警惕的是, 在HiveQL中String类型的字段若是空(empty)字符串, 即长度为0, 那么对它进行IS NULL的判断结果是False.

4、Hive不支持将数据插入现有的表或分区中,
仅支持覆盖重写整个表,示例如下:

  1. INSERT OVERWRITE TABLE t1  

  2. SELECT * FROM t2;


5、hive不支持INSERT INTO 表 Values(), UPDATE, DELETE操作
    这样的话,就不要很复杂的锁机制来读写数据。
    INSERT INTO syntax is only available starting in version 0.8。INSERT INTO就是在表或分区中追加数据。

6、hive支持嵌入mapreduce程序,来处理复杂的逻辑
如:

  1. FROM (  

  2. MAP doctext USING 'python wc_mapper.py' AS (word, cnt)  

  3. FROM docs  

  4. CLUSTER BY word  

  5. ) a  

  6. REDUCE word, cnt USING 'python wc_reduce.py';  


--doctext: 是输入
--word, cnt: 是map程序的输出

--CLUSTER BY: 将wordhash后,又作为reduce程序的输入

并且map程序、reduce程序可以单独使用,如:

  1. FROM (  

  2. FROM session_table  

  3. SELECT sessionid, tstamp, data  

  4. DISTRIBUTE BY sessionid SORT BY tstamp  

  5. ) a  

  6. REDUCE sessionid, tstamp, data USING 'session_reducer.sh';  


-DISTRIBUTE BY: 用于给reduce程序分配行数据

7、hive支持将转换后的数据直接写入不同的表,还能写入分区、hdfs和本地目录
这样能免除多次扫描输入表的开销。

  1. FROM t1  

  2.   

  3. INSERT OVERWRITE TABLE t2  

  4. SELECT t3.c2, count(1)  

  5. FROM t3  

  6. WHERE t3.c1 <= 20  

  7. GROUP BY t3.c2  

  8.   

  9. INSERT OVERWRITE DIRECTORY '/output_dir'  

  10. SELECT t3.c2, avg(t3.c1)  

  11. FROM t3  

  12. WHERE t3.c1 > 20 AND t3.c1 <= 30  

  13. GROUP BY t3.c2  

  14.   

  15. INSERT OVERWRITE LOCAL DIRECTORY '/home/dir'  

  16. SELECT t3.c2, sum(t3.c1)  

  17. FROM t3  

  18. WHERE t3.c1 > 30  

  19. GROUP BY t3.c2;  



一周热门 更多>