分段分组聚合

时间区间分段聚合

分段聚合是一种时序数据典型的查询方式,数据以高频进行采集,需要按照一定的时间间隔进行聚合计算,如计算每天的平均气温,需要将气温的序列按天进行分段,然后计算平均值。

在 IoTDB 中,聚合查询可以通过 GROUP BY 子句指定按照时间区间分段聚合。用户可以指定聚合的时间间隔和滑动步长,相关参数如下:

  • 参数 1:时间轴显示时间窗口大小
  • 参数 2:聚合窗口的大小(必须为正数)
  • 参数 3:聚合窗口的滑动步长(可选,默认与聚合窗口大小相同)

下图中指出了这三个参数的含义:

分段分组聚合 - 图1

接下来,我们给出几个典型例子:

未指定滑动步长的时间区间分组聚合查询

对应的 SQL 语句是:

  1. select count(status), max_value(temperature) from root.ln.wf01.wt01 group by ([2017-11-01T00:00:00, 2017-11-07T23:00:00),1d);

这条查询的含义是:

由于用户没有指定滑动步长,滑动步长将会被默认设置为跟时间间隔参数相同,也就是1d

上面这个例子的第一个参数是显示窗口参数,决定了最终的显示范围是 [2017-11-01T00:00:00, 2017-11-07T23:00:00)。

上面这个例子的第二个参数是划分时间轴的时间间隔参数,将1d当作划分间隔,显示窗口参数的起始时间当作分割原点,时间轴即被划分为连续的时间间隔:[0,1d), [1d, 2d), [2d, 3d) 等等。

然后系统将会用 WHERE 子句中的时间和值过滤条件以及 GROUP BY 语句中的第一个参数作为数据的联合过滤条件,获得满足所有过滤条件的数据(在这个例子里是在 [2017-11-01T00:00:00, 2017-11-07 T23:00:00) 这个时间范围的数据),并把这些数据映射到之前分割好的时间轴中(这个例子里是从 2017-11-01T00:00:00 到 2017-11-07T23:00:00:00 的每一天)

每个时间间隔窗口内都有数据,SQL 执行后的结果集如下所示:

  1. +-----------------------------+-------------------------------+----------------------------------------+
  2. | Time|count(root.ln.wf01.wt01.status)|max_value(root.ln.wf01.wt01.temperature)|
  3. +-----------------------------+-------------------------------+----------------------------------------+
  4. |2017-11-01T00:00:00.000+08:00| 1440| 26.0|
  5. |2017-11-02T00:00:00.000+08:00| 1440| 26.0|
  6. |2017-11-03T00:00:00.000+08:00| 1440| 25.99|
  7. |2017-11-04T00:00:00.000+08:00| 1440| 26.0|
  8. |2017-11-05T00:00:00.000+08:00| 1440| 26.0|
  9. |2017-11-06T00:00:00.000+08:00| 1440| 25.99|
  10. |2017-11-07T00:00:00.000+08:00| 1380| 26.0|
  11. +-----------------------------+-------------------------------+----------------------------------------+
  12. Total line number = 7
  13. It costs 0.024s

指定滑动步长的时间区间分组聚合查询

对应的 SQL 语句是:

  1. select count(status), max_value(temperature) from root.ln.wf01.wt01 group by ([2017-11-01 00:00:00, 2017-11-07 23:00:00), 3h, 1d);

这条查询的含义是:

由于用户指定了滑动步长为1d,GROUP BY 语句执行时将会每次把时间间隔往后移动一天的步长,而不是默认的 3 小时。

也就意味着,我们想要取从 2017-11-01 到 2017-11-07 每一天的凌晨 0 点到凌晨 3 点的数据。

上面这个例子的第一个参数是显示窗口参数,决定了最终的显示范围是 [2017-11-01T00:00:00, 2017-11-07T23:00:00)。

上面这个例子的第二个参数是划分时间轴的时间间隔参数,将3h当作划分间隔,显示窗口参数的起始时间当作分割原点,时间轴即被划分为连续的时间间隔:[2017-11-01T00:00:00, 2017-11-01T03:00:00), [2017-11-02T00:00:00, 2017-11-02T03:00:00), [2017-11-03T00:00:00, 2017-11-03T03:00:00) 等等。

上面这个例子的第三个参数是每次时间间隔的滑动步长。

然后系统将会用 WHERE 子句中的时间和值过滤条件以及 GROUP BY 语句中的第一个参数作为数据的联合过滤条件,获得满足所有过滤条件的数据(在这个例子里是在 [2017-11-01T00:00:00, 2017-11-07 T23:00:00) 这个时间范围的数据),并把这些数据映射到之前分割好的时间轴中(这个例子里是从 2017-11-01T00:00:00 到 2017-11-07T23:00:00:00 的每一天的凌晨 0 点到凌晨 3 点)

每个时间间隔窗口内都有数据,SQL 执行后的结果集如下所示:

  1. +-----------------------------+-------------------------------+----------------------------------------+
  2. | Time|count(root.ln.wf01.wt01.status)|max_value(root.ln.wf01.wt01.temperature)|
  3. +-----------------------------+-------------------------------+----------------------------------------+
  4. |2017-11-01T00:00:00.000+08:00| 180| 25.98|
  5. |2017-11-02T00:00:00.000+08:00| 180| 25.98|
  6. |2017-11-03T00:00:00.000+08:00| 180| 25.96|
  7. |2017-11-04T00:00:00.000+08:00| 180| 25.96|
  8. |2017-11-05T00:00:00.000+08:00| 180| 26.0|
  9. |2017-11-06T00:00:00.000+08:00| 180| 25.85|
  10. |2017-11-07T00:00:00.000+08:00| 180| 25.99|
  11. +-----------------------------+-------------------------------+----------------------------------------+
  12. Total line number = 7
  13. It costs 0.006s

滑动步长可以小于聚合窗口,此时聚合窗口之间有重叠时间(类似于一个滑动窗口)。

例如 SQL:

  1. select count(status), max_value(temperature) from root.ln.wf01.wt01 group by ([2017-11-01 00:00:00, 2017-11-01 10:00:00), 4h, 2h);

SQL 执行后的结果集如下所示:

  1. +-----------------------------+-------------------------------+----------------------------------------+
  2. | Time|count(root.ln.wf01.wt01.status)|max_value(root.ln.wf01.wt01.temperature)|
  3. +-----------------------------+-------------------------------+----------------------------------------+
  4. |2017-11-01T00:00:00.000+08:00| 180| 25.98|
  5. |2017-11-01T02:00:00.000+08:00| 180| 25.98|
  6. |2017-11-01T04:00:00.000+08:00| 180| 25.96|
  7. |2017-11-01T06:00:00.000+08:00| 180| 25.96|
  8. |2017-11-01T08:00:00.000+08:00| 180| 26.0|
  9. +-----------------------------+-------------------------------+----------------------------------------+
  10. Total line number = 5
  11. It costs 0.006s

按照自然月份的时间区间分组聚合查询

对应的 SQL 语句是:

  1. select count(status) from root.ln.wf01.wt01 where time > 2017-11-01T01:00:00 group by([2017-11-01T00:00:00, 2019-11-07T23:00:00), 1mo, 2mo);

这条查询的含义是:

由于用户指定了滑动步长为2mo,GROUP BY 语句执行时将会每次把时间间隔往后移动 2 个自然月的步长,而不是默认的 1 个自然月。

也就意味着,我们想要取从 2017-11-01 到 2019-11-07 每 2 个自然月的第一个月的数据。

上面这个例子的第一个参数是显示窗口参数,决定了最终的显示范围是 [2017-11-01T00:00:00, 2019-11-07T23:00:00)。

起始时间为 2017-11-01T00:00:00,滑动步长将会以起始时间作为标准按月递增,取当月的 1 号作为时间间隔的起始时间。

上面这个例子的第二个参数是划分时间轴的时间间隔参数,将1mo当作划分间隔,显示窗口参数的起始时间当作分割原点,时间轴即被划分为连续的时间间隔:[2017-11-01T00:00:00, 2017-12-01T00:00:00), [2018-02-01T00:00:00, 2018-03-01T00:00:00), [2018-05-03T00:00:00, 2018-06-01T00:00:00) 等等。

上面这个例子的第三个参数是每次时间间隔的滑动步长。

然后系统将会用 WHERE 子句中的时间和值过滤条件以及 GROUP BY 语句中的第一个参数作为数据的联合过滤条件,获得满足所有过滤条件的数据(在这个例子里是在 [2017-11-01T00:00:00, 2019-11-07T23:00:00) 这个时间范围的数据),并把这些数据映射到之前分割好的时间轴中(这个例子里是从 2017-11-01T00:00:00 到 2019-11-07T23:00:00:00 的每两个自然月的第一个月)

每个时间间隔窗口内都有数据,SQL 执行后的结果集如下所示:

  1. +-----------------------------+-------------------------------+
  2. | Time|count(root.ln.wf01.wt01.status)|
  3. +-----------------------------+-------------------------------+
  4. |2017-11-01T00:00:00.000+08:00| 259|
  5. |2018-01-01T00:00:00.000+08:00| 250|
  6. |2018-03-01T00:00:00.000+08:00| 259|
  7. |2018-05-01T00:00:00.000+08:00| 251|
  8. |2018-07-01T00:00:00.000+08:00| 242|
  9. |2018-09-01T00:00:00.000+08:00| 225|
  10. |2018-11-01T00:00:00.000+08:00| 216|
  11. |2019-01-01T00:00:00.000+08:00| 207|
  12. |2019-03-01T00:00:00.000+08:00| 216|
  13. |2019-05-01T00:00:00.000+08:00| 207|
  14. |2019-07-01T00:00:00.000+08:00| 199|
  15. |2019-09-01T00:00:00.000+08:00| 181|
  16. |2019-11-01T00:00:00.000+08:00| 60|
  17. +-----------------------------+-------------------------------+

对应的 SQL 语句是:

  1. select count(status) from root.ln.wf01.wt01 group by([2017-10-31T00:00:00, 2019-11-07T23:00:00), 1mo, 2mo);

这条查询的含义是:

由于用户指定了滑动步长为2mo,GROUP BY 语句执行时将会每次把时间间隔往后移动 2 个自然月的步长,而不是默认的 1 个自然月。

也就意味着,我们想要取从 2017-10-31 到 2019-11-07 每 2 个自然月的第一个月的数据。

与上述示例不同的是起始时间为 2017-10-31T00:00:00,滑动步长将会以起始时间作为标准按月递增,取当月的 31 号(即最后一天)作为时间间隔的起始时间。若起始时间设置为 30 号,滑动步长会将时间间隔的起始时间设置为当月 30 号,若不存在则为最后一天。

上面这个例子的第一个参数是显示窗口参数,决定了最终的显示范围是 [2017-10-31T00:00:00, 2019-11-07T23:00:00)。

上面这个例子的第二个参数是划分时间轴的时间间隔参数,将1mo当作划分间隔,显示窗口参数的起始时间当作分割原点,时间轴即被划分为连续的时间间隔:[2017-10-31T00:00:00, 2017-11-31T00:00:00), [2018-02-31T00:00:00, 2018-03-31T00:00:00), [2018-05-31T00:00:00, 2018-06-31T00:00:00) 等等。

上面这个例子的第三个参数是每次时间间隔的滑动步长。

然后系统将会用 WHERE 子句中的时间和值过滤条件以及 GROUP BY 语句中的第一个参数作为数据的联合过滤条件,获得满足所有过滤条件的数据(在这个例子里是在 [2017-10-31T00:00:00, 2019-11-07T23:00:00) 这个时间范围的数据),并把这些数据映射到之前分割好的时间轴中(这个例子里是从 2017-10-31T00:00:00 到 2019-11-07T23:00:00:00 的每两个自然月的第一个月)

每个时间间隔窗口内都有数据,SQL 执行后的结果集如下所示:

  1. +-----------------------------+-------------------------------+
  2. | Time|count(root.ln.wf01.wt01.status)|
  3. +-----------------------------+-------------------------------+
  4. |2017-10-31T00:00:00.000+08:00| 251|
  5. |2017-12-31T00:00:00.000+08:00| 250|
  6. |2018-02-28T00:00:00.000+08:00| 259|
  7. |2018-04-30T00:00:00.000+08:00| 250|
  8. |2018-06-30T00:00:00.000+08:00| 242|
  9. |2018-08-31T00:00:00.000+08:00| 225|
  10. |2018-10-31T00:00:00.000+08:00| 216|
  11. |2018-12-31T00:00:00.000+08:00| 208|
  12. |2019-02-28T00:00:00.000+08:00| 216|
  13. |2019-04-30T00:00:00.000+08:00| 208|
  14. |2019-06-30T00:00:00.000+08:00| 199|
  15. |2019-08-31T00:00:00.000+08:00| 181|
  16. |2019-10-31T00:00:00.000+08:00| 69|
  17. +-----------------------------+-------------------------------+

左开右闭区间

每个区间的结果时间戳为区间右端点,对应的 SQL 语句是:

  1. select count(status) from root.ln.wf01.wt01 group by ((2017-11-01T00:00:00, 2017-11-07T23:00:00],1d);

这条查询语句的时间区间是左开右闭的,结果中不会包含时间点 2017-11-01 的数据,但是会包含时间点 2017-11-07 的数据。

SQL 执行后的结果集如下所示:

  1. +-----------------------------+-------------------------------+
  2. | Time|count(root.ln.wf01.wt01.status)|
  3. +-----------------------------+-------------------------------+
  4. |2017-11-02T00:00:00.000+08:00| 1440|
  5. |2017-11-03T00:00:00.000+08:00| 1440|
  6. |2017-11-04T00:00:00.000+08:00| 1440|
  7. |2017-11-05T00:00:00.000+08:00| 1440|
  8. |2017-11-06T00:00:00.000+08:00| 1440|
  9. |2017-11-07T00:00:00.000+08:00| 1440|
  10. |2017-11-07T23:00:00.000+08:00| 1380|
  11. +-----------------------------+-------------------------------+
  12. Total line number = 7
  13. It costs 0.004s

与分组聚合混合使用

通过定义 LEVEL 来统计指定层级下的数据点个数。

例如:

统计降采样后的数据点个数

  1. select count(status) from root.ln.wf01.wt01 group by ((2017-11-01T00:00:00, 2017-11-07T23:00:00],1d), level=1;

结果:

  1. +-----------------------------+-------------------------+
  2. | Time|COUNT(root.ln.*.*.status)|
  3. +-----------------------------+-------------------------+
  4. |2017-11-02T00:00:00.000+08:00| 1440|
  5. |2017-11-03T00:00:00.000+08:00| 1440|
  6. |2017-11-04T00:00:00.000+08:00| 1440|
  7. |2017-11-05T00:00:00.000+08:00| 1440|
  8. |2017-11-06T00:00:00.000+08:00| 1440|
  9. |2017-11-07T00:00:00.000+08:00| 1440|
  10. |2017-11-07T23:00:00.000+08:00| 1380|
  11. +-----------------------------+-------------------------+
  12. Total line number = 7
  13. It costs 0.006s

加上滑动 Step 的降采样后的结果也可以汇总

  1. select count(status) from root.ln.wf01.wt01 group by ([2017-11-01 00:00:00, 2017-11-07 23:00:00), 3h, 1d), level=1;
  1. +-----------------------------+-------------------------+
  2. | Time|COUNT(root.ln.*.*.status)|
  3. +-----------------------------+-------------------------+
  4. |2017-11-01T00:00:00.000+08:00| 180|
  5. |2017-11-02T00:00:00.000+08:00| 180|
  6. |2017-11-03T00:00:00.000+08:00| 180|
  7. |2017-11-04T00:00:00.000+08:00| 180|
  8. |2017-11-05T00:00:00.000+08:00| 180|
  9. |2017-11-06T00:00:00.000+08:00| 180|
  10. |2017-11-07T00:00:00.000+08:00| 180|
  11. +-----------------------------+-------------------------+
  12. Total line number = 7
  13. It costs 0.004s

路径层级分组聚合

在时间序列层级结构中,分层聚合查询用于对某一层级下同名的序列进行聚合查询

  • 使用 GROUP BY LEVEL = INT 来指定需要聚合的层级,并约定 ROOT 为第 0 层。若统计 “root.ln” 下所有序列则需指定 level 为 1。
  • 分层聚合查询支持使用所有内置聚合函数。对于 sumavgmin_valuemax_valueextreme 五种聚合函数,需保证所有聚合的时间序列数据类型相同。其他聚合函数没有此限制。

示例1: 不同 database 下均存在名为 status 的序列, 如 “root.ln.wf01.wt01.status”, “root.ln.wf02.wt02.status”, 以及 “root.sgcc.wf03.wt01.status”, 如果需要统计不同 database 下 status 序列的数据点个数,使用以下查询:

  1. select count(status) from root.** group by level = 1

运行结果为:

  1. +-------------------------+---------------------------+
  2. |count(root.ln.*.*.status)|count(root.sgcc.*.*.status)|
  3. +-------------------------+---------------------------+
  4. | 20160| 10080|
  5. +-------------------------+---------------------------+
  6. Total line number = 1
  7. It costs 0.003s

示例2: 统计不同设备下 status 序列的数据点个数,可以规定 level = 3,

  1. select count(status) from root.** group by level = 3

运行结果为:

  1. +---------------------------+---------------------------+
  2. |count(root.*.*.wt01.status)|count(root.*.*.wt02.status)|
  3. +---------------------------+---------------------------+
  4. | 20160| 10080|
  5. +---------------------------+---------------------------+
  6. Total line number = 1
  7. It costs 0.003s

注意,这时会将 database lnsgcc 下名为 wt01 的设备视为同名设备聚合在一起。

示例3: 统计不同 database 下的不同设备中 status 序列的数据点个数,可以使用以下查询:

  1. select count(status) from root.** group by level = 1, 3

运行结果为:

  1. +----------------------------+----------------------------+------------------------------+
  2. |count(root.ln.*.wt01.status)|count(root.ln.*.wt02.status)|count(root.sgcc.*.wt01.status)|
  3. +----------------------------+----------------------------+------------------------------+
  4. | 10080| 10080| 10080|
  5. +----------------------------+----------------------------+------------------------------+
  6. Total line number = 1
  7. It costs 0.003s

示例4: 查询所有序列下温度传感器 temperature 的最大值,可以使用下列查询语句:

  1. select max_value(temperature) from root.** group by level = 0

运行结果:

  1. +---------------------------------+
  2. |max_value(root.*.*.*.temperature)|
  3. +---------------------------------+
  4. | 26.0|
  5. +---------------------------------+
  6. Total line number = 1
  7. It costs 0.013s

示例5: 上面的查询都是针对某一个传感器,特别地,如果想要查询某一层级下所有传感器拥有的总数据点数,则需要显式规定测点为 *

  1. select count(*) from root.ln.** group by level = 2

运行结果:

  1. +----------------------+----------------------+
  2. |count(root.*.wf01.*.*)|count(root.*.wf02.*.*)|
  3. +----------------------+----------------------+
  4. | 20160| 20160|
  5. +----------------------+----------------------+
  6. Total line number = 1
  7. It costs 0.013s

标签分组聚合

IoTDB 支持通过 GROUP BY TAGS 语句根据时间序列中定义的标签的键值做聚合查询。

我们先在 IoTDB 中写入如下示例数据,稍后会以这些数据为例介绍标签聚合查询。

这些是某工厂 factory1 在多个城市的多个车间的设备温度数据, 时间范围为 [1000, 10000)。

时间序列路径中的设备一级是设备唯一标识。城市信息 city 和车间信息 workshop 则被建模在该设备时间序列的标签中。 其中,设备 d1d2Beijingw1 车间, d3d4Beijingw2 车间,d5d6Shanghaiw1 车间,d7Shanghaiw2 车间。 d8d9 设备目前处于调试阶段,还未被分配到具体的城市和车间,所以其相应的标签值为空值。

  1. create database root.factory1;
  2. create timeseries root.factory1.d1.temperature with datatype=FLOAT tags(city=Beijing, workshop=w1);
  3. create timeseries root.factory1.d2.temperature with datatype=FLOAT tags(city=Beijing, workshop=w1);
  4. create timeseries root.factory1.d3.temperature with datatype=FLOAT tags(city=Beijing, workshop=w2);
  5. create timeseries root.factory1.d4.temperature with datatype=FLOAT tags(city=Beijing, workshop=w2);
  6. create timeseries root.factory1.d5.temperature with datatype=FLOAT tags(city=Shanghai, workshop=w1);
  7. create timeseries root.factory1.d6.temperature with datatype=FLOAT tags(city=Shanghai, workshop=w1);
  8. create timeseries root.factory1.d7.temperature with datatype=FLOAT tags(city=Shanghai, workshop=w2);
  9. create timeseries root.factory1.d8.temperature with datatype=FLOAT;
  10. create timeseries root.factory1.d9.temperature with datatype=FLOAT;
  11. insert into root.factory1.d1(time, temperature) values(1000, 104.0);
  12. insert into root.factory1.d1(time, temperature) values(3000, 104.2);
  13. insert into root.factory1.d1(time, temperature) values(5000, 103.3);
  14. insert into root.factory1.d1(time, temperature) values(7000, 104.1);
  15. insert into root.factory1.d2(time, temperature) values(1000, 104.4);
  16. insert into root.factory1.d2(time, temperature) values(3000, 103.7);
  17. insert into root.factory1.d2(time, temperature) values(5000, 103.3);
  18. insert into root.factory1.d2(time, temperature) values(7000, 102.9);
  19. insert into root.factory1.d3(time, temperature) values(1000, 103.9);
  20. insert into root.factory1.d3(time, temperature) values(3000, 103.8);
  21. insert into root.factory1.d3(time, temperature) values(5000, 102.7);
  22. insert into root.factory1.d3(time, temperature) values(7000, 106.9);
  23. insert into root.factory1.d4(time, temperature) values(1000, 103.9);
  24. insert into root.factory1.d4(time, temperature) values(5000, 102.7);
  25. insert into root.factory1.d4(time, temperature) values(7000, 106.9);
  26. insert into root.factory1.d5(time, temperature) values(1000, 112.9);
  27. insert into root.factory1.d5(time, temperature) values(7000, 113.0);
  28. insert into root.factory1.d6(time, temperature) values(1000, 113.9);
  29. insert into root.factory1.d6(time, temperature) values(3000, 113.3);
  30. insert into root.factory1.d6(time, temperature) values(5000, 112.7);
  31. insert into root.factory1.d6(time, temperature) values(7000, 112.3);
  32. insert into root.factory1.d7(time, temperature) values(1000, 101.2);
  33. insert into root.factory1.d7(time, temperature) values(3000, 99.3);
  34. insert into root.factory1.d7(time, temperature) values(5000, 100.1);
  35. insert into root.factory1.d7(time, temperature) values(7000, 99.8);
  36. insert into root.factory1.d8(time, temperature) values(1000, 50.0);
  37. insert into root.factory1.d8(time, temperature) values(3000, 52.1);
  38. insert into root.factory1.d8(time, temperature) values(5000, 50.1);
  39. insert into root.factory1.d8(time, temperature) values(7000, 50.5);
  40. insert into root.factory1.d9(time, temperature) values(1000, 50.3);
  41. insert into root.factory1.d9(time, temperature) values(3000, 52.1);

单标签聚合查询

用户想统计该工厂每个地区的设备的温度的平均值,可以使用如下查询语句

  1. SELECT AVG(temperature) FROM root.factory1.** GROUP BY TAGS(city);

该查询会将具有同一个 city 标签值的时间序列的所有满足查询条件的点做平均值计算,计算结果如下

  1. +--------+------------------+
  2. | city| avg(temperature)|
  3. +--------+------------------+
  4. | Beijing|104.04666697184244|
  5. |Shanghai|107.85000076293946|
  6. | NULL| 50.84999910990397|
  7. +--------+------------------+
  8. Total line number = 3
  9. It costs 0.231s

从结果集中可以看到,和时间区间聚合、按层次聚合相比,标签聚合的查询结果的不同点是:

  1. 标签聚合查询的聚合结果不会再做去星号展开,而是将多个时间序列的数据作为一个整体进行聚合计算。
  2. 标签聚合查询除了输出聚合结果列,还会输出聚合标签的键值列。该列的列名为聚合指定的标签键,列的值则为所有查询的时间序列中出现的该标签的值。 如果某些时间序列未设置该标签,则在键值列中有一行单独的 NULL ,代表未设置标签的所有时间序列数据的聚合结果。

多标签聚合查询

除了基本的单标签聚合查询外,还可以按顺序指定多个标签进行聚合计算。

例如,用户想统计每个城市的每个车间内设备的平均温度。但因为各个城市的车间名称有可能相同,所以不能直接按照 workshop 做标签聚合。必须要先按照城市,再按照车间处理。

SQL 语句如下

  1. SELECT avg(temperature) FROM root.factory1.** GROUP BY TAGS(city, workshop);

查询结果如下

  1. +--------+--------+------------------+
  2. | city|workshop| avg(temperature)|
  3. +--------+--------+------------------+
  4. | NULL| NULL| 50.84999910990397|
  5. |Shanghai| w1|113.01666768391927|
  6. | Beijing| w2| 104.4000004359654|
  7. |Shanghai| w2|100.10000038146973|
  8. | Beijing| w1|103.73750019073486|
  9. +--------+--------+------------------+
  10. Total line number = 5
  11. It costs 0.027s

从结果集中可以看到,和单标签聚合相比,多标签聚合的查询结果会根据指定的标签顺序,输出相应标签的键值列。

基于时间区间的标签聚合查询

按照时间区间聚合是时序数据库中最常用的查询需求之一。IoTDB 在基于时间区间的聚合基础上,支持进一步按照标签进行聚合查询。

例如,用户想统计时间 [1000, 10000) 范围内,每个城市每个车间中的设备每 5 秒内的平均温度。

SQL 语句如下

  1. SELECT AVG(temperature) FROM root.factory1.** GROUP BY ([1000, 10000), 5s), TAGS(city, workshop);

查询结果如下

  1. +-----------------------------+--------+--------+------------------+
  2. | Time| city|workshop| avg(temperature)|
  3. +-----------------------------+--------+--------+------------------+
  4. |1970-01-01T08:00:01.000+08:00| NULL| NULL| 50.91999893188476|
  5. |1970-01-01T08:00:01.000+08:00|Shanghai| w1|113.20000076293945|
  6. |1970-01-01T08:00:01.000+08:00| Beijing| w2| 103.4|
  7. |1970-01-01T08:00:01.000+08:00|Shanghai| w2| 100.1999994913737|
  8. |1970-01-01T08:00:01.000+08:00| Beijing| w1|103.81666692097981|
  9. |1970-01-01T08:00:06.000+08:00| NULL| NULL| 50.5|
  10. |1970-01-01T08:00:06.000+08:00|Shanghai| w1| 112.6500015258789|
  11. |1970-01-01T08:00:06.000+08:00| Beijing| w2| 106.9000015258789|
  12. |1970-01-01T08:00:06.000+08:00|Shanghai| w2| 99.80000305175781|
  13. |1970-01-01T08:00:06.000+08:00| Beijing| w1| 103.5|
  14. +-----------------------------+--------+--------+------------------+

和标签聚合相比,基于时间区间的标签聚合的查询会首先按照时间区间划定聚合范围,在时间区间内部再根据指定的标签顺序,进行相应数据的聚合计算。在输出的结果集中,会包含一列时间列,该时间列值的含义和时间区间聚合查询的相同。

标签聚合查询的限制

由于标签聚合功能仍然处于开发阶段,目前有如下未实现功能。

  1. 暂不支持 HAVING 子句过滤查询结果。
  2. 暂不支持结果按照标签值排序。
  3. 暂不支持 LIMITOFFSETSLIMITSOFFSET
  4. 暂不支持 ALIGN BY DEVICE
  5. 暂不支持聚合函数内部包含表达式,例如 count(s+1)
  6. 不支持值过滤条件聚合,和分层聚合查询行为保持一致。