Hive-DDL语句,数据库、表的基本操作

喜欢ヅ旅行 2023-03-04 08:29 70阅读 0赞

DDL语句,数据库、表的基本操作

文章目录

  • DDL语句,数据库、表的基本操作
    • 1 创建-数据库
    • 2 查询-数据库
    • 3 修改-数据库
    • 4 删除-数据库
    • 5 创建-表
      • 5.1 管理表
      • 5.2 外部表
      • 5.3 管理表与外部表的互相转换
    • 6 修改-表
    • 7 删除-表
    • 8 清除-表

1 创建-数据库

  1. CREATE DATABASE [IF NOT EXISTS] database_name
  2. [COMMENT database_comment]
  3. [LOCATION hdfs_path]
  4. [WITH DBPROPERTIES (property_name=property_value, ...)];

1)创建一个数据库,数据库在HDFS上的默认存储路径是/user/hive/warehouse/*.db。

/user/hive/warehouse就是default库

  1. hive (default)> create database db_hive;

2)避免要创建的数据库已经存在错误,增加if not exists判断。(标准写法)

  1. hive (default)> create database db_hive;
  2. FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. Database db_hive already exists
  3. hive (default)> create database if not exists db_hive;

3)创建一个数据库,指定数据库在HDFS上存放的位置(库和表都是以文件夹的形式)

  1. hive (default)> create database db_hive2 location '/db_hive2';

2 查询-数据库

  1. # 显示数据库
  2. 1)显示数据库
  3. hive> show databases;
  4. 2)过滤显示查询的数据库
  5. hive> show databases like 'db_hive*';
  6. OK
  7. db_hive
  8. db_hive_1
  9. # 查看数据库详情
  10. 1)显示数据库信息
  11. hive> desc database db_hive;
  12. OK
  13. db_hive hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db qinjlUSER
  14. 2)显示数据库详细信息,extended关键字
  15. hive> desc database extended db_hive;
  16. OK
  17. db_hive hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db qinjlUSER
  18. #切换当前数据库
  19. hive (default)> use db_hive;
  20. #查看当前使用的数据库
  21. hive (default)> select current_database();

3 修改-数据库

用户可以使用ALTER DATABASE命令为某个数据库的DBPROPERTIES设置键-值对属性值,来描述这个数据库的属性信息。数据库的其他元数据信息都是不可更改的,包括数据库名和数据库所在的目录位置。

  1. hive (default)> alter database db_hive set dbproperties('createtime'='20200101');

在hive中查看修改结果

  1. hive> desc database extended db_hive;
  2. db_name comment location owner_name owner_type parameters
  3. db_hive hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db qinjl USER {createtime=20200101}

4 删除-数据库

1)删除空数据库

  1. hive>drop database db_hive2;

2)如果删除的数据库不存在,最好采用 if exists判断数据库是否存在

  1. hive> drop database db_hive;
  2. FAILED: SemanticException [Error 10072]: Database does not exist: db_hive
  3. hive> drop database if exists db_hive2;

3)如果数据库不为空,可以采用cascade命令,强制删除(级联删除,里面的表也会删除)

  1. hive> drop database db_hive;
  2. FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. InvalidOperationException(message:Database db_hive is not empty. One or more tables exist.)
  3. hive> drop database db_hive cascade;

5 创建-表

1)建表语法

  1. CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name # EXTERNAL表示创建表是否是外部表
  2. [(col_name data_type [COMMENT col_comment], ...)] # 表的字段名 和字段类型 ,以及对字段的解释
  3. [COMMENT table_comment] # 对于表的解释
  4. [PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] # 分区
  5. [CLUSTERED BY (col_name, col_name, ...) # 分桶
  6. [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS] # 分几个桶
  7. [ROW FORMAT DELIMITED # 对于当前的表分隔的说明
  8. [FIELDS TERMINATED BY char] # 对于字段的分隔说明 --默认是ascii 码表的001 ^A
  9. yangyang,caicai_susu, xiao yang:18_xiaoxiao yang:19,chao yang_beijing_10011
  10. # 对于此行数据的分隔类型是 ','
  11. [COLLECTION ITEMS TERMINATED BY char] # 对于集合的分隔说明 --默认是ascii 码表的002 ^B
  12. caicai_susu xiao yang:18_xiaoxiao yang:19 chao yang_beijing_10011
  13. # 对于三个集合 map array struct 分隔是'_'
  14. [MAP KEYS TERMINATED BY char] # 对于map的kv分隔类型 --默认是ascii 码表的003 ^C
  15. xiao yang:18
  16. # 对于当前map集合分隔符是 ':'
  17. [LINES TERMINATED BY char] # 对于每行数据而言的分隔类型 '\n'
  18. ]
  19. [STORED AS file_format] # 对于当前表对应文件存储类型
  20. [LOCATION hdfs_path] # 指定的hdfs路径 如果不指定默认在库里面
  21. [TBLPROPERTIES (property_name=property_value, ...)] # 表的属性
  22. [AS select_statement] # 根据查询的结果创建表(包括表的结构和数据)
  23. [LIKE table_name] # 模仿一张表(只有表的结构没有数据)

2)字段解释说明

(1)CREATE TABLE:创建一个指定名字的表。如果相同名字的表已经存在,则抛出异常;可以用 IF NOT EXISTS 选项来忽略这个异常。

(2)EXTERNAL:关键字可以创建一个外部表,在建表的同时可以指定一个指向实际数据的路径(LOCATION),在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据。

(3)COMMENT:为表和列添加注释。

(4)PARTITIONED BY:创建分区表

(5)CLUSTERED BY:创建分桶表

(6)SORTED BY:对桶中的一个或多个列另外排序

(7)STORED AS:指定存储文件类型

  • 常用的存储文件类型:SEQUENCEFILE(二进制序列文件)、TEXTFILE(文本)、RCFILE(列式存储格式文件)
  • 如果文件数据是纯文本,可以使用STORED AS TEXTFILE。如果数据需要压缩,使用 STORED AS SEQUENCEFILE。

(8)LOCATION :指定表在HDFS上的存储位置。

(9)AS:后跟查询语句,根据查询结果创建表。

(10)LIKE:允许用户复制现有的表结构,但是不复制数据。

5.1 管理表

1)理论

默认创建的表都是所谓的管理表,有时也被称为内部表。
因为这种表,Hive会控制着数据的生命周期。
当我们删除一个管理表时,Hive也会删除这个表中数据。管理表不适合和其他工具共享数据。

2)案例实操

(1)普通创建表

  1. create table if not exists student(
  2. id int, name string
  3. )
  4. row format delimited fields terminated by '\t'
  5. location '/user/hive/warehouse/student';

(2)根据查询结果创建表(as)(查询的结果会添加到新创建的表中)

hdfs扫描文件是从上往下,加载到hive也是按hfds的顺序读的数据

  1. create table if not exists student2
  2. as select id, name from studet;

(3)根据已经存在的表结构创建表(like)

  1. create table if not exists student3
  2. like student;

(4)查询表的类型

  1. hive (default)> desc formatted student2;
  2. Table Type: MANAGED_TABLE

5.2 外部表

1)理论

因为表是外部表,所以Hive并非认为其完全拥有这份数据。删除该表并不会删除掉这份数据,不过描述表的元数据信息会被删除掉。

2)管理表和外部表的使用场景

每天将收集到的网站日志定期流入HDFS文本文件。在外部表(原始日志表)的基础上做大量的统计分析,用到的中间表、结果表使用内部表存储,数据通过SELECT+INSERT进入内部表。

3)案例实操

创建部门外部表,并向表中导入数据。

(1)建表语句,创建外部表

创建部门表

  1. create external table if not exists dept(
  2. deptno int,
  3. dname string,
  4. loc int
  5. )
  6. row format delimited fields terminated by '\t'
  7. location '/company/dept';

(2)查看表格式化数据

  1. hive (default)> desc formatted dept;
  2. Table Type: EXTERNAL_TABLE

(3)删除外部表(外部表删除后,hdfs中的数据还在,但是metadata中dept的元数据已被删除)

  1. hive (default)> drop table dept;

5.3 管理表与外部表的互相转换

(2)修改内部表student为外部表

  1. alter table student set tblproperties('EXTERNAL'='TRUE');
  • 注意:(‘EXTERNAL’=‘TRUE’)和(‘EXTERNAL’=‘FALSE’)为固定写法,区分大小写!

6 修改-表

  1. # 重命名表
  2. 1)语法
  3. ALTER TABLE table_name RENAME TO new_table_name
  4. 2)实操案例
  5. hive (default)> alter table student2 rename to student3;
  6. # 增加/修改/替换列信息
  7. 1)语法
  8. 1)更新列
  9. 更新列,列名可以随意修改,列的类型只能小改大,不能大改小(遵循自动转换规则)
  10. ALTER TABLE table_name CHANGE [COLUMN] col_old_name col_new_name column_type [COMMENT col_comment] [FIRST|AFTER column_name]
  11. 2)增加和替换列
  12. ALTER TABLE table_name ADD|REPLACE COLUMNS (col_name data_type [COMMENT col_comment], ...)
  13. 注:ADD是代表新增一字段,字段位置在所有列后面(partition列前),REPLACE则是表示替换表中所有字段,REPLACE使用的时候,字段的类型要跟之前的类型对应上,数量可以减少或者增加,其实就是包含了更新列,增加列,删除列的功能。
  14. 2)实操案例
  15. 1)查询表结构
  16. hive> desc dept;
  17. 2)添加列
  18. hive (default)> alter table dept add columns(deptdesc string);
  19. 3)查询表结构
  20. hive> desc dept;
  21. 4)更新列
  22. hive (default)> alter table dept change column deptdesc desc string;
  23. 5)查询表结构
  24. hive> desc dept;
  25. 6)替换列
  26. hive (default)> alter table dept replace columns(deptno string, dname string, loc string);
  27. 7)查询表结构
  28. hive> desc dept;

7 删除-表

  1. hive (default)> drop table dept;

8 清除-表

  • 注意:Truncate只能删除管理表的数据(元数据信息还在,表(文件夹)还在),不能删除外部表中数据

    hive (default)> truncate table student;

发表评论

表情:
评论列表 (有 0 条评论,70人围观)

还没有评论,来说两句吧...

相关阅读