博客
关于我
【Hive】---- Hive 数据类型
阅读量:336 次
发布时间:2019-03-04

本文共 2134 字,大约阅读时间需要 7 分钟。


文章目录


一、基本数据类型

在这里插入图片描述

  • 对于Hive的String类型相当于数据库的varchar类型,该类型是一个可变的字符串,不过它不能声明其中最多能存储多少个字符,理论上它可以存储2GB的字符数。


二、集合数据类型

在这里插入图片描述

  • Hive 有三种复杂数据类型 ARRAY、MAP 和 STRUCT。ARRAY 和 MAP 与 Java 中的
    Array 和 Map 类似,而 STRUCT 与 C 语言中的 Struct 类似,它封装了一个命名字段集合,
    复杂数据类型允许任意层次的嵌套

案例精讲:

1)假设某表有如下一行

{   "name": "songsong","friends": ["bingbing" , "lili"],"children": {    "xiao song": 18 ,"xiaoxiao song": 19} "address": {   "street": "hui long guan" ,"city": "beijing"}}

我们用JSON格式来表示其数据结构。在Hive下访问的格式为:

{       "name": "songsong",    "friends": ["bingbing" , "lili"] , //列表Array,     "children": {                         //键值Map,        "xiao song": 18 ,        "xiaoxiao song": 19    }    "address": {                         //结构Struct,        "street": "hui long guan" ,        "city": "beijing"     }}

2)基于上述数据结构,我们在Hive里创建对应的表,并导入数据。 创建本地测试文件test.txt

songsong,bingbing_lili,xiao song:18_xiaoxiao song:19,hui long guan_beijingyangyang,caicai_susu  ,xiao yang:18_xiaoxiao yang:19,chao yang_beijing

3)Hive上创建测试表test

create table test( name string, friends array
, // 列表 children map
, // 键值 address struct
// 结构)row format delimited fields terminated by ',' // 字段分隔符collection items terminated by '_' // MAP STRUCT 和 ARRAY 的分隔符(数据分割符号)map keys terminated by ':' // 键值分隔符lines terminated by '\n'; // 行分隔符

4)导入文本数据到测试表

hive (default)> load data local inpath ‘/opt/module/datas/test.txt’ into table test

5)访问三种集合列里的数据,以下分别是ARRAY,MAP,STRUCT的访问方式

hive (default)> select friends[1],children['xiao song'],address.city from testwhere name="songsong";OK_c0     _c1     citylili    18      beijingTime taken: 0.076 seconds, Fetched: 1 row(s)


三、类型转换

Hive的原子数据类型是可以进行隐式转换的,类似于Java的类型转换,例如某表达式使用INT类型,TINYINT会自动转换为INT类型,但是Hive不会进行反向转化,例如,某表达式使用TINYINT类型,INT不会自动转换为TINYINT类型,它会返回错误,除非使用CAST操作。

1.隐式类型转换规则如下

  • (1)任何整数类型都可以隐式地转换为一个范围更广的类型,如TINYINT可以转换成INT,INT可以转换成BIGINT。
  • (2)所有整数类型、FLOAT和STRING类型都可以隐式地转换成DOUBLE
  • (3)TINYINT、SMALLINT、INT都可以转换为FLOAT
  • (4)BOOLEAN类型不可以转换为任何其它的类型

2.可以使用CAST操作显示进行数据类型转换

例如:

  • CAST('1' AS INT)将把字符串’1’ 转换成整数1;如果强制类型转换失败,如执行CAST('X' AS INT),表达式返回空值 NULL


转载地址:http://lzeq.baihongyu.com/

你可能感兴趣的文章
Nginx配置限流,技能拉满!
查看>>
Nginx配置静态代理/静态资源映射时root与alias的区别,带前缀映射用alias
查看>>
Nginx面试三连问:Nginx如何工作?负载均衡策略有哪些?如何限流?
查看>>
nginx:/usr/src/fastdfs-nginx-module/src/common.c:21:25:致命错误:fdfs_define.h:没有那个文件或目录 #include
查看>>
Nginx:NginxConfig可视化配置工具安装
查看>>
ngModelController
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>