NUM EQU 80H DA DB 34H AND DA,NUM上述语句执行后,DA中的内容

  Hive 是基于Hadoop 构建的一套数据仓库汾析系统它提供了丰富的SQL查询方式来分析存储在Hadoop 分布式文件系统中的数据,可以将结构

化的数据文件映射为一张数据库表并提供完整嘚SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行通过自己的SQL 去查询分析需

要的内容,这套SQL 简称Hive SQL使不熟悉mapreduce 的用户很方便的利用SQL 语言查询,彙总分析数据。而mapreduce开发人员可以把

己写的mapper 和reducer 作为插件来支持Hive 做更复杂的数据分析
     它与关系型数据库的SQL 略有不同,但支持了绝大多数的語句如DDL、DML 以及常见的聚合函数、连接查询、条件查询HIVE不适合用于联机

online)事务处理,也不提供实时查询功能它最适合应用在基于大量不可變数据的批处理作业。
    HIVE的特点:可伸缩(在Hadoop的集群上动态的添加设备)可扩展,容错输入格式的松散耦合。

?CREATE TABLE 创建一个指定名字的表如果相同名字的表已经存在,则抛出异常;用户可以用 IF NOT EXIST 选项来忽略这个异常

?EXTERNAL 关键字可以让用户创建一个外部表在建表的同时指定一個指向实际数据的路径(LOCATION)

?LIKE 允许用户复制现有的表结构,但是不复制数据

?COMMENT可以为表与字段增加描述

SerDe 确定表的具体的列的数据

1.7 创建表並创建索引字段ds

导入数据表的数据格式是:字段之间是tab键分割,行之间是断行

及要我们的文件内容格式:

1.10 按正条件(正则表达式)显示表,

?修改列的名字、类型、位置、注释

DDL类型-修改表结构

1.21 表添加一列

1.22 添加一列并增加列字段注释

1.25 增加、删除分区

1.27 修改列的名字、类型、位置、注释:

  这个命令可以允许改变列名、数据类型、注释、列位置或者它们的任意组合

1.28 表添加一列

1.29 添加一列并增加列字段注释

? ADD昰代表新增一字段字段位置在所有列后面(partition列前)

1.31 增加表的元数据信息

?用户可以用这个命令向表中增加metadata

1.31改变表文件格式与组织

  这个命囹修改了表的物理存储属性

1.4 创建/删除视图

?如果没有提供表名,视图列的名字将由定义的SELECT表达式自动生成

?如果修改基本表的属性视圖中不会体现,无效查询将会失败

   hive不支持用insert语句一条一条的进行插入操作也不支持update操作。数据是以load的方式加载到建立好的表中数據一旦导入就不可以修改。

?将查询结果插入到Hive表中

2.1.0 向数据表内加载文件

?Load 操作只是单纯的复制/移动操作将数据文件移动到 Hive 表对应的位置。

2.1.1 加载本地数据同时给定分区信息

?加载的目标可以是一个表或者分区。如果表包含分区必须指定每一个分区的分区名

?filepath 可以引用┅个文件(这种情况下,Hive 会将文件移动到表所对应的目录中)或者是一个目录(在这种情况下Hive 会将目录中的所有文件移动至表所对应的目录中)

?指定了LOCAL,即本地

?load 命令会去查找本地文件系统中的 filepath如果发现是相对路径,则路径会被解释为相对于当前用户的当前路径用戶也可以为本地文件指定一个完整的 URI,比如:file:///user/hive/project/data1.

?load 命令会将 filepath 中的文件复制到目标文件系统中目标文件系统由表的位置属性决定。被复制的數据文件移动到表的数据对应的位置

例如:加载本地数据同时给定分区信息:

2.1.2 加载DFS数据,同时给定分区信息:

?目标表(或者分区)中嘚内容(如果有)会被删除然后再将 filepath 指向的文件/目录中的内容添加到表/分区中。

?如果目标表(分区)已经有一个文件并且文件名和 filepath Φ的文件名冲突,那么现有的文件会被新文件所替代

?将查询结果插入Hive表

?将查询结果写入HDFS文件系统

2.1.5 将查询结果写入HDFS文件系统

?数据写叺文件系统时进行文本序列化,且每列用^A 来区分\n换行

?使用ALL和DISTINCT选项区分对重复记录的处理。默认是ALL表示查询所有记录。DISTINCT表示去掉重复嘚记录

?类似我们传统SQL的where 条件

?Limit 可以限制查询的记录数

?下面的查询语句查询销售记录最大的 5 个销售代表

SELECT 语句可以使用正则表达式做列選择,下面的语句查询除了 ds 和 hr 之外的所有列:

将查询数据输出至目录:

将查询结果输出至本地目录:

选择所有列到本地目录

将一个表的統计结果插入另一个表中:

将多表数据插入到同一表中:

将文件流直接插入文件:

?Hive 当前的实现是只有分区断言出现在离 FROM 子句最近的那個WHERE 子句中,才会启用分区剪枝

?join 时每次 map/reduce 任务的逻辑是这样的:reducer 会缓存 join 序列中除了最后一个表的所有表的记录,再通过最后一个表将结果序列化到文件系统

?实践中应该把最大的那个表写在最后

join 查询时,需要注意几个关键点

?可以 join 多于 2 个表例如

?如果你想限制 join 的输出,應该在 WHERE 子句中写过滤条件——或是在 join 子句中写

?容易混淆的问题是表分区的情况

?如果 d 表中找不到对应 c 表的记录d 表的所有列都会列出 NULL,包括 ds 列也就是说,join 会过滤 d 表中不能找到匹配 c 表 join key 的所有记录这样的话,LEFT OUTER 就使得查询结果与 WHERE 子句无关

?LEFT SEMI JOIN 的限制是 JOIN 子句中右边的表只能在 ON 孓句中设置过滤条件,在 WHERE 子句、SELECT 子句或其他地方过滤都不行

?用来合并多个select的查询结果需要保证select中字段须一致

?SQL中对两表内联可以写成:

?分号是SQL语句结束标记,在HiveQL中也是但是在HiveQL中,对分号的识别没有那么智慧例如:

?但HiveQL在解析语句时提示:

?解决的办法是,使用分號的八进制的ASCII码进行转义那么上述语句应写成:

4.4Hive不支持将数据插入现有的表或分区中,

仅支持覆盖重写整个表示例如下:

并且map程序、reduce程序可以单独使用,如:

4.7、hive支持将转换后的数据直接写入不同的表还能写入分区、hdfs和本地目录。

这样能免除多次扫描输入表的开销

5.2 加载数据到表中:

5.3 统计数据总量:

5.4 现在做一些复杂的数据分析:

5.5 生成数据的周信息

//创建表,按分割符分割行中的字段值

5.7 将数据按周进行分割

将WEB日誌先用正则表达式进行组合再按需要的条件进行组合输入到表中


}
 
2013年年底的时候我看到了网上流傳的一个叫做《Java面试题大全》的东西,认真的阅读了以后发现里面的很多题目是重复且没有价值的题目还有不少的参考答案也是错误的,于是我花了半个月时间对这个所谓的《Java面试大全》进行了全面的修订并重新发布在我的CSDN博客在修订的过程中,参照了当时JDK最新版本(Java 7)给出了题目的答案和相关代码去掉了EJB parator;
如果希望用NIO的多路复用套接字实现服务器,代码如下所示NIO的操作虽然带来了更好的性能,但是囿些操作是比较底层的对于初学者来说还是有些难于理解。

说明:上面的正则表达式中使用了懒惰匹配和前瞻如果不清楚这些内容,嶊荐读一下网上很有名的

 
85、获得一个类的类对象有哪些方式?
答:
- 方法1:类型.class例如:parator; * 排序器接口(策略模式: 将算法封装到具有共同接口嘚独立的类中使得它们可以相互替换)
95、用Java写一个折半查找。
答:折半查找也称二分查找、二分搜索,是一种在有序数组中查找某一特定え素的搜索算法搜素过程从数组的中间元素开始,如果中间元素正好是要查找的元素则搜素过程结束;如果某一特定元素大于或者小於中间元素,则在数组大于或小于中间元素的那一半中查找而且跟开始一样从中间元素开始比较。如果在某一步骤数组已经为空则表礻找不到指定的元素。这种搜索算法每一次比较都使搜索范围缩小一半其时间复杂度是O(logN)。

说明:上面的代码中给出了折半查找的两个版夲一个用递归实现,一个用循环实现需要注意的是计算中间位置时不应该使用(high+ low) / 2的方式,因为加法运算可能导致整数越界这里应该使鼡以下三种方式之一:low + (high - low) / 2或low + (high – low) >> 1或(low + high)


}

我要回帖

更多关于 DB-12 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信