hive的数据迁移怎么做

2020-11-24 09:44发布

4条回答
小小李兆佳
2楼 · 2020-11-24 10:57

数据迁移脚本: 
1、在原集群上创建,并设置相应权限 
hadoop  fs -mkdir /tmp/hive-export 
2、生成导出脚本 
hive -e "use fangyc;show tables " | awk '{printf "use fangyc;export table %s to @/tmp/hive-export/%s@;\n",$1,$1}' | sed "s/@/'/g" > export.hql 
fangyc:是数据库名,根据实际情况修改 
3、手工导出数据到hdfs 
hive -f export.hql 
命令查看下导出数据:hadoop fs -ls  /tmp/hive-export 


-4、下载hdfs数据到本地并传送到目标hadoop集群的/tmp/hive-export 目录 
//注意在目标集群上创建 /tmp/hive-export目录,并且设置相应的操作权限 
hdfs dfs -get /tmp/hive-export/*  //原集群操作 
hdfs dfs -put * /tmp/hive-export  //目标集群操作 


//单个表数据移动,有bug,此处可以使用distcp  源数据   目标数据 
//hadoop distcp hdfs://namenode1/tmp/hive-export/表名  hdfs://namenode2/tmp/hive-export/ 


5、在目标集群上构建 
构造导入语句 
cp export.hql import.hql  
sed -i 's/export table/import table/g' import.hql 
sed -i 's/ to / from /g' import.hql 
6、导入数据 

hive -f import.hql


分区特别处理(元数据出炉、分区数据导入)

先编辑 import.hql为单一表的操作,最好复制一份

然后执行hive -f import.hql,就是加在元数据

删除dt分区

hadoop fs -rm -r /user/hive/warehouse/zh000001_vrv.db/browselog_gw/dt*

上传本地备份数据中的所有dt到表中

hadoop fs -put  browselog_gw/dt*   /user/hive/warehouse/zh000001_vrv.db/browselog_gw/


Sophia
3楼 · 2020-11-24 10:59
1.元数据迁移

元数据迁移是非常重要的一部分,目前常用的迁移方法,大致上有两种,一个是,show create table获取创建table的sql语句,然后在新集群的hive上面执行对应的hive语句,创建表。第二个是使用import,import命令不仅仅可以迁移元数据,也迁移数据的,它会把元数据生成在一个文件里面,数据,直接的拷贝到import指定的文件夹里面。

2.数据的迁移

对于数据的迁移,常用的也是两种办法,区别在于两个集群是否联通,如果联通的话,可以使用hadoop distcp的方式来进行数据迁移,如果网络不联通的话,可以先,get到本地,然后经由本地上传到新的hadoop集群




freediandianer
4楼 · 2020-11-27 13:39
1.元数据迁移

元数据迁移是非常重要的一部分,目前常用的迁移方法,大致上有两种,一个是,show create table获取创建table的sql语句,然后在新集群的hive上面执行对应的hive语句,创建表。第二个是使用import,import命令不仅仅可以迁移元数据,也迁移数据的,它会把元数据生成在一个文件里面,数据,直接的拷贝到import指定的文件夹里面。

2.数据的迁移

对于数据的迁移,常用的也是两种办法,区别在于两个集群是否联通,如果联通的话,可以使用hadoop distcp的方式来进行数据迁移,如果网络不联通的话,可以先,get到本地,然后经由本地上传到新的hadoop集群



水默
5楼 · 2020-11-29 17:59

1.show create 方法。

#!/bin/bash

# 打印database下面的表
hive -e "use $1;show tables;" > $1.txt
sed -i '1d' $1.txt

# 遍历表,获取他们的ddl语句
cat tables.txt |while read line
do
    hive -e "use $1;show create table $line" >> create_tables.txt
    echo ";" >> tablesDDL.txt
done

现在执行获取到的ddl文件,注意,对应的test的database需要先创建出来,在新集群上面执行下面的语句。

hive  -f create_tables.txt

到这里元数据已经完成了迁移。
2.使用import的方式进行元数据的迁移
这里也是书写脚本

#!/bin/bash

# import是针对表的mingl,所以这里创建存储表数据和元数据的hdfs文件夹
mkHdfsDir(){
        hdfs dfs -test -e  /test/$1/$2
        if [ $? -eq 0 ] ;then
                hdfs dfs -rm -r -f /test/$1/$2
                hdfs dfs -mkdir -p /test/$1/$2
        else
                hdfs dfs -mkdir /test/$1/$2
        fi
}

# 打印对应的datbase所有表
hive -e "use $1;show tables;" > $1.txt
#打印出来的第一行是 table_name,要进行删除
sed -i '1d' $1.txt

# 遍历所有的表,export数据,这里的$1是你要导出的database
cat $1.txt | while read line
do
        mkHdfsDir $1 $line
        echo "---------------------- export db $1 table $line ------------------------"
        hive -e  "use $1; export table $line to '/test/$1/$line';"
done
2.数据的迁移

对于数据的迁移,常用的也是两种办法,区别在于两个集群是否联通,如果联通的话,可以使用hadoop distcp的方式来进行数据迁移,如果网络不联通的话,可以先,get到本地,然后经由本地上传到新的hadoop集群
1.网络联通

hadoop distcp -skipcrccheck -update hdfs://linux121:9000/test hdfs://linux122:9000:/test

-skipcrccheck 省略crc检查,如果hadoop版本一样,可以不加,如果低版本向高版本迁移的话,最好带上
-update 增量更新,通过文件名称,大小比较,源文件和目标文件不同则更新
2.网络不联通

hdfs sdf -get /test
# 压缩减少传输
tar -zcvf  /test test.tar.gz
#解压
tar -zxvf  test.tar.gz  -C /test
# 上传到目标hadoop集群
hdfs  dfs -put  /test /test
3.元数据和数据产生关联

这一步取决于上面两边分别使用了什么。

  1. 元数据使用show create table的方式,数据可以使用 hadoop distcp,这里注意表的目录和文件的目录要和之前的集群的保持一致,然后使用 msck方式分区修复

# 表会自动的扫描对应文件夹里面的数据,将其写到元数据里面,产生关联
msck  repair  table  

2.元数据使用show create table的方式,数据可以使用 export的方式,这个时候,应为表以建立好,使用import的方式,会把数据加载到创建表的文件夹里面,自动的产生关联

use test;import table 表名 from /test/;

3.元数据使用export的方式,这里可以知己的使用import恢复数据,比较推荐的是这一种

#!/bin/bash
# 遍历所有的表,import数据
cat $1.txt | while read line
do
        echo "---------------------- import db $1 table $line ------------------------"
        hive -e  "use $1;import table $line from '/test/default/$line';"
done


相关问题推荐

  • 什么是大数据时代?2021-01-13 21:23
    回答 100

    大数据(big data)一词越来越多地被提及,人们用它来描述和定义信息爆炸时代产生的海量数据,而这个海量数据的时代则被称为大数据时代。随着云时代的来临,大数据(Big data)也吸引了越来越多的关注。大数据(Big data)通常用来形容一个公司创造的大量非结...

  • 回答 84

    Java和大数据的关系:Java是计算机的一门编程语言;可以用来做很多工作,大数据开发属于其中一种;大数据属于互联网方向,就像现在建立在大数据基础上的AI方向一样,他两不是一个同类,但是属于包含和被包含的关系;Java可以用来做大数据工作,大数据开发或者...

  • 回答 52
    已采纳

    学完大数据可以从事很多工作,比如说:hadoop 研发工程师、大数据研发工程师、大数据分析工程师、数据库工程师、hadoop运维工程师、大数据运维工程师、java大数据工程师、spark工程师等等都是我们可以从事的工作岗位!不同的岗位,所具备的技术知识也是不一样...

  • 回答 29

    简言之,大数据是指大数据集,这些数据集经过计算分析可以用于揭示某个方面相关的模式和趋势。大数据技术的战略意义不在于掌握庞大的数据信息,而在于对这些含有意义的数据进行专业化处理。大数据的特点:数据量大、数据种类多、 要求实时性强、数据所蕴藏的...

  • 回答 14

    tail -f的时候,发现一个奇怪的现象,首先 我在一个窗口中 tail -f test.txt 然后在另一个窗口中用vim编辑这个文件,增加了几行字符,并保存,这个时候发现第一个窗口中并没有变化,没有将最新的内容显示出来。tail -F,重复上面的实验过程, 发现这次有变化了...

  • 回答 18

    您好针对您的问题,做出以下回答,希望有所帮助!1、大数据行业还是有非常大的人才需求的,对于就业也有不同的岗位可选,比如大数据工程师,大数据运维,大数据架构师,大数据分析师等等,就业难就难在能否找到适合的工作,能否与你的能力和就业预期匹配。2、...

  • 回答 17

    最小的基本单位是Byte应该没多少人不知道吧,下面先按顺序给出所有单位:Byte、KB、MB、GB、TB、PB、EB、ZB、YB、DB、NB,按照进率1024(2的十次方)计算:1Byte = 8 Bit1 KB = 1,024 Bytes 1 MB = 1,024 KB = 1,048,576 Bytes 1 GB = 1,024 MB = 1,048,576...

  • 回答 33

    大数据的定义。大数据,又称巨量资料,指的是所涉及的数据资料量规模巨大到无法通过人脑甚至主流软件工具,在合理时间内达到撷取、管理、处理、并整理成为帮助企业经营决策更积极目的的资讯。大数据是对大量、动态、能持续的数据,通过运用新系统、新工具、新...

  • 回答 5

    MySQL是一种关系型数据库管理系统,关系数据库将数据保存在不同的表中,而不是将所有数据放在一个大仓库内,这样就增加了速度并提高了灵活性。MySQL的版本:针对不同的用户,MySQL分为两种不同的版本:MySQL Community Server社区版本,免费,但是Mysql不提供...

  • mysql安装步骤mysql 2022-05-07 18:01
    回答 2

    mysql安装需要先使用yum安装mysql数据库的软件包 ;然后启动数据库服务并运行mysql_secure_installation去除安全隐患,最后登录数据库,便可完成安装

  • 回答 5

    1.查看所有数据库showdatabases;2.查看当前使用的数据库selectdatabase();3.查看数据库使用端口showvariableslike'port';4.查看数据库编码showvariableslike‘%char%’;character_set_client 为客户端编码方式; character_set_connection 为建立连接...

  • 回答 5

    CREATE TABLE IF NOT EXISTS `runoob_tbl`(    `runoob_id` INT UNSIGNED AUTO_INCREMENT,    `runoob_title` VARCHAR(100) NOT NULL,    `runoob_author` VARCHAR(40) NOT NULL,    `submission_date` DATE,    PRI...

  • 回答 9

    学习多久,我觉得看你基础情况。1、如果原来什么语言也没有学过,也没有基础,那我觉得最基础的要先选择一种语言来学习,是VB,C..,pascal,看个人的喜好,一般情况下,选择C语言来学习。2、如果是有过语言的学习,我看应该一个星期差不多,因为语言的理念互通...

  • 回答 7

    添加语句 INSERT插入语句:INSERT INTO 表名 VALUES (‘xx’,‘xx’)不指定插入的列INSERT INTO table_name VALUES (值1, 值2,…)指定插入的列INSERT INTO table_name (列1, 列2,…) VALUES (值1, 值2,…)查询插入语句: INSERT INTO 插入表 SELECT * FROM 查...

  • 回答 5

    看你什么岗位吧。如果是后端,只会CRUD。应该是可以找到实习的,不过公司应该不会太好。如果是数据库开发岗位,那这应该是不会找到的。

  • 回答 7

    查找数据列 SELECT column1, column2, … FROM table_name; SELECT column_name(s) FROM table_name 

没有解决我的问题,去提问