Code

a47acbbaaf17e95b4c4adc7761343a0d18f19533
[pkg-rrdtool.git] / doc / rrdcreate.pod
1 =head1 NAME
3 rrdcreate - Set up a new Round Robin Database
5 =head1 SYNOPSIS
7 B<rrdtool> B<create> I<filename>
8 S<[B<--start>|B<-b> I<start time>]>
9 S<[B<--step>|B<-s> I<step>]>
10 S<[B<DS:>I<ds-name>B<:>I<DST>B<:>I<dst arguments>]>
11 S<[B<RRA:>I<CF>B<:>I<cf arguments>]>
13 =head1 DESCRIPTION
15 The create function of RRDtool lets you set up new Round Robin
16 Database (B<RRD>) files.  The file is created at its final, full size
17 and filled with I<*UNKNOWN*> data.
19 =over
21 =item I<filename>
23 The name of the B<RRD> you want to create. B<RRD> files should end
24 with the extension F<.rrd>. However, B<RRDtool> will accept any
25 filename.
27 =item B<--start>|B<-b> I<start time> (default: now - 10s)
29 Specifies the time in seconds since 1970-01-01 UTC when the first
30 value should be added to the B<RRD>. B<RRDtool> will not accept
31 any data timed before or at the time specified.
33 See also AT-STYLE TIME SPECIFICATION section in the
34 I<rrdfetch> documentation for other ways to specify time.
36 =item B<--step>|B<-s> I<step> (default: 300 seconds)
38 Specifies the base interval in seconds with which data will be fed
39 into the B<RRD>.
41 =item B<DS:>I<ds-name>B<:>I<DST>B<:>I<dst arguments>
43 A single B<RRD> can accept input from several data sources (B<DS>),
44 for example incoming and outgoing traffic on a specific communication
45 line. With the B<DS> configuration option you must define some basic
46 properties of each data source you want to store in the B<RRD>.
48 I<ds-name> is the name you will use to reference this particular data
49 source from an B<RRD>. A I<ds-name> must be 1 to 19 characters long in
50 the characters [a-zA-Z0-9_].
52 I<DST> defines the Data Source Type. The remaining arguments of a
53 data source entry depend on the data source type. For GAUGE, COUNTER,
54 DERIVE, and ABSOLUTE the format for a data source entry is:
56 B<DS:>I<ds-name>B<:>I<GAUGE | COUNTER | DERIVE | ABSOLUTE>B<:>I<heartbeat>B<:>I<min>B<:>I<max>
58 For COMPUTE data sources, the format is:
60 B<DS:>I<ds-name>B<:>I<COMPUTE>B<:>I<rpn-expression>
62 In order to decide which data source type to use, review the
63 definitions that follow. Also consult the section on "HOW TO MEASURE"
64 for further insight.
66 =over
68 =item B<GAUGE>
70 is for things like temperatures or number of people in a room or the
71 value of a RedHat share.
73 =item B<COUNTER>
75 is for continuous incrementing counters like the ifInOctets counter in
76 a router. The B<COUNTER> data source assumes that the counter never
77 decreases, except when a counter overflows.  The update function takes
78 the overflow into account.  The counter is stored as a per-second
79 rate. When the counter overflows, RRDtool checks if the overflow
80 happened at the 32bit or 64bit border and acts accordingly by adding
81 an appropriate value to the result.
83 =item B<DERIVE>
85 will store the derivative of the line going from the last to the
86 current value of the data source. This can be useful for gauges, for
87 example, to measure the rate of people entering or leaving a
88 room. Internally, derive works exactly like COUNTER but without
89 overflow checks. So if your counter does not reset at 32 or 64 bit you
90 might want to use DERIVE and combine it with a MIN value of 0.
92 NOTE on COUNTER vs DERIVE
94 by Don Baarda E<lt>don.baarda@baesystems.comE<gt>
96 If you cannot tolerate ever mistaking the occasional counter reset for a
97 legitimate counter wrap, and would prefer "Unknowns" for all legitimate
98 counter wraps and resets, always use DERIVE with min=0. Otherwise, using
99 COUNTER with a suitable max will return correct values for all legitimate
100 counter wraps, mark some counter resets as "Unknown", but can mistake some
101 counter resets for a legitimate counter wrap.
103 For a 5 minute step and 32-bit counter, the probability of mistaking a
104 counter reset for a legitimate wrap is arguably about 0.8% per 1Mbps of
105 maximum bandwidth. Note that this equates to 80% for 100Mbps interfaces, so
106 for high bandwidth interfaces and a 32bit counter, DERIVE with min=0 is
107 probably preferable. If you are using a 64bit counter, just about any max
108 setting will eliminate the possibility of mistaking a reset for a counter
109 wrap.
111 =item B<ABSOLUTE>
113 is for counters which get reset upon reading. This is used for fast counters
114 which tend to overflow. So instead of reading them normally you reset them
115 after every read to make sure you have a maximum time available before the
116 next overflow. Another usage is for things you count like number of messages
117 since the last update.
119 =item B<COMPUTE>
121 is for storing the result of a formula applied to other data sources
122 in the B<RRD>. This data source is not supplied a value on update, but
123 rather its Primary Data Points (PDPs) are computed from the PDPs of
124 the data sources according to the rpn-expression that defines the
125 formula. Consolidation functions are then applied normally to the PDPs
126 of the COMPUTE data source (that is the rpn-expression is only applied
127 to generate PDPs). In database software, such data sets are referred
128 to as "virtual" or "computed" columns.
130 =back
132 I<heartbeat> defines the maximum number of seconds that may pass
133 between two updates of this data source before the value of the
134 data source is assumed to be I<*UNKNOWN*>.
136 I<min> and I<max> define the expected range values for data supplied by a
137 data source. If I<min> and/or I<max> any value outside the defined range
138 will be regarded as I<*UNKNOWN*>. If you do not know or care about min and
139 max, set them to U for unknown. Note that min and max always refer to the
140 processed values of the DS. For a traffic-B<COUNTER> type DS this would be
141 the maximum and minimum data-rate expected from the device.
143 I<If information on minimal/maximal expected values is available,
144 always set the min and/or max properties. This will help RRDtool in
145 doing a simple sanity check on the data supplied when running update.>
147 I<rpn-expression> defines the formula used to compute the PDPs of a
148 COMPUTE data source from other data sources in the same <RRD>. It is
149 similar to defining a B<CDEF> argument for the graph command. Please
150 refer to that manual page for a list and description of RPN operations
151 supported. For COMPUTE data sources, the following RPN operations are
152 not supported: COUNT, PREV, TIME, and LTIME. In addition, in defining
153 the RPN expression, the COMPUTE data source may only refer to the
154 names of data source listed previously in the create command. This is
155 similar to the restriction that B<CDEF>s must refer only to B<DEF>s
156 and B<CDEF>s previously defined in the same graph command.
158 =item B<RRA:>I<CF>B<:>I<cf arguments>
161 The purpose of an B<RRD> is to store data in the round robin archives
162 (B<RRA>). An archive consists of a number of data values or statistics for
163 each of the defined data-sources (B<DS>) and is defined with an B<RRA> line.
165 When data is entered into an B<RRD>, it is first fit into time slots
166 of the length defined with the B<-s> option, thus becoming a I<primary
167 data point>.
169 The data is also processed with the consolidation function (I<CF>) of
170 the archive. There are several consolidation functions that
171 consolidate primary data points via an aggregate function: B<AVERAGE>,
172 B<MIN>, B<MAX>, B<LAST>. The format of B<RRA> line for these
173 consolidation functions is:
175 B<RRA:>I<AVERAGE | MIN | MAX | LAST>B<:>I<xff>B<:>I<steps>B<:>I<rows>
177 I<xff> The xfiles factor defines what part of a consolidation interval may
178 be made up from I<*UNKNOWN*> data while the consolidated value is still
179 regarded as known. It is given as the ratio of allowed I<*UNKNOWN*> PDPs
180 to the number of PDPs in the interval. Thus, it ranges from 0 to 1 (exclusive).
183 I<steps> defines how many of these I<primary data points> are used to build
184 a I<consolidated data point> which then goes into the archive.
186 I<rows> defines how many generations of data values are kept in an B<RRA>.
188 =back
190 =head1 Aberrant Behavior Detection with Holt-Winters Forecasting
192 In addition to the aggregate functions, there are a set of specialized
193 functions that enable B<RRDtool> to provide data smoothing (via the
194 Holt-Winters forecasting algorithm), confidence bands, and the
195 flagging aberrant behavior in the data source time series:
197 =over
199 =item *
201 B<RRA:>I<HWPREDICT>B<:>I<rows>B<:>I<alpha>B<:>I<beta>B<:>I<seasonal period>[B<:>I<rra-num>]
203 =item *
205 B<RRA:>I<SEASONAL>B<:>I<seasonal period>B<:>I<gamma>B<:>I<rra-num>
207 =item *
209 B<RRA:>I<DEVSEASONAL>B<:>I<seasonal period>B<:>I<gamma>B<:>I<rra-num>
211 =item *
213 B<RRA:>I<DEVPREDICT>B<:>I<rows>B<:>I<rra-num>
215 =item *
217 B<RRA:>I<FAILURES>B<:>I<rows>B<:>I<threshold>B<:>I<window length>B<:>I<rra-num>
219 =back
221 These B<RRAs> differ from the true consolidation functions in several ways.
222 First, each of the B<RRA>s is updated once for every primary data point.
223 Second, these B<RRAs> are interdependent. To generate real-time confidence
224 bounds, a matched set of HWPREDICT, SEASONAL, DEVSEASONAL, and
225 DEVPREDICT must exist. Generating smoothed values of the primary data points
226 requires both a HWPREDICT B<RRA> and SEASONAL B<RRA>. Aberrant behavior
227 detection requires FAILURES, HWPREDICT, DEVSEASONAL, and SEASONAL.
229 The actual predicted, or smoothed, values are stored in the HWPREDICT
230 B<RRA>. The predicted deviations are stored in DEVPREDICT (think a standard
231 deviation which can be scaled to yield a confidence band). The FAILURES
232 B<RRA> stores binary indicators. A 1 marks the indexed observation as
233 failure; that is, the number of confidence bounds violations in the
234 preceding window of observations met or exceeded a specified threshold. An
235 example of using these B<RRAs> to graph confidence bounds and failures
236 appears in L<rrdgraph>.
238 The SEASONAL and DEVSEASONAL B<RRAs> store the seasonal coefficients for the
239 Holt-Winters forecasting algorithm and the seasonal deviations, respectively.
240 There is one entry per observation time point in the seasonal cycle. For
241 example, if primary data points are generated every five minutes and the
242 seasonal cycle is 1 day, both SEASONAL and DEVSEASONAL will have 288 rows.
244 In order to simplify the creation for the novice user, in addition to
245 supporting explicit creation of the HWPREDICT, SEASONAL, DEVPREDICT,
246 DEVSEASONAL, and FAILURES B<RRAs>, the B<RRDtool> create command supports
247 implicit creation of the other four when HWPREDICT is specified alone and
248 the final argument I<rra-num> is omitted.
250 I<rows> specifies the length of the B<RRA> prior to wrap around. Remember
251 that there is a one-to-one correspondence between primary data points and
252 entries in these RRAs. For the HWPREDICT CF, I<rows> should be larger than
253 the I<seasonal period>. If the DEVPREDICT B<RRA> is implicitly created, the
254 default number of rows is the same as the HWPREDICT I<rows> argument. If the
255 FAILURES B<RRA> is implicitly created, I<rows> will be set to the I<seasonal
256 period> argument of the HWPREDICT B<RRA>. Of course, the B<RRDtool>
257 I<resize> command is available if these defaults are not sufficient and the
258 creator wishes to avoid explicit creations of the other specialized function
259 B<RRAs>.
261 I<seasonal period> specifies the number of primary data points in a seasonal
262 cycle. If SEASONAL and DEVSEASONAL are implicitly created, this argument for
263 those B<RRAs> is set automatically to the value specified by HWPREDICT. If
264 they are explicitly created, the creator should verify that all three
265 I<seasonal period> arguments agree.
267 I<alpha> is the adaption parameter of the intercept (or baseline)
268 coefficient in the Holt-Winters forecasting algorithm. See L<rrdtool> for a
269 description of this algorithm. I<alpha> must lie between 0 and 1. A value
270 closer to 1 means that more recent observations carry greater weight in
271 predicting the baseline component of the forecast. A value closer to 0 means
272 that past history carries greater weight in predicting the baseline
273 component.
275 I<beta> is the adaption parameter of the slope (or linear trend) coefficient
276 in the Holt-Winters forecasting algorithm. I<beta> must lie between 0 and 1
277 and plays the same role as I<alpha> with respect to the predicted linear
278 trend.
280 I<gamma> is the adaption parameter of the seasonal coefficients in the
281 Holt-Winters forecasting algorithm (HWPREDICT) or the adaption parameter in
282 the exponential smoothing update of the seasonal deviations. It must lie
283 between 0 and 1. If the SEASONAL and DEVSEASONAL B<RRAs> are created
284 implicitly, they will both have the same value for I<gamma>: the value
285 specified for the HWPREDICT I<alpha> argument. Note that because there is
286 one seasonal coefficient (or deviation) for each time point during the
287 seasonal cycle, the adaptation rate is much slower than the baseline. Each
288 seasonal coefficient is only updated (or adapts) when the observed value
289 occurs at the offset in the seasonal cycle corresponding to that
290 coefficient.
292 If SEASONAL and DEVSEASONAL B<RRAs> are created explicitly, I<gamma> need not
293 be the same for both. Note that I<gamma> can also be changed via the
294 B<RRDtool> I<tune> command.
296 I<rra-num> provides the links between related B<RRAs>. If HWPREDICT is
297 specified alone and the other B<RRAs> are created implicitly, then
298 there is no need to worry about this argument. If B<RRAs> are created
299 explicitly, then carefully pay attention to this argument. For each
300 B<RRA> which includes this argument, there is a dependency between
301 that B<RRA> and another B<RRA>. The I<rra-num> argument is the 1-based
302 index in the order of B<RRA> creation (that is, the order they appear
303 in the I<create> command). The dependent B<RRA> for each B<RRA>
304 requiring the I<rra-num> argument is listed here:
306 =over
308 =item *
310 HWPREDICT I<rra-num> is the index of the SEASONAL B<RRA>.
312 =item *
314 SEASONAL I<rra-num> is the index of the HWPREDICT B<RRA>.
316 =item *
318 DEVPREDICT I<rra-num> is the index of the DEVSEASONAL B<RRA>.
320 =item *
322 DEVSEASONAL I<rra-num> is the index of the HWPREDICT B<RRA>.
324 =item *
326 FAILURES I<rra-num> is the index of the DEVSEASONAL B<RRA>.
328 =back
330 I<threshold> is the minimum number of violations (observed values outside
331 the confidence bounds) within a window that constitutes a failure. If the
332 FAILURES B<RRA> is implicitly created, the default value is 7.
334 I<window length> is the number of time points in the window. Specify an
335 integer greater than or equal to the threshold and less than or equal to 28.
336 The time interval this window represents depends on the interval between
337 primary data points. If the FAILURES B<RRA> is implicitly created, the
338 default value is 9.
340 =head1 The HEARTBEAT and the STEP
342 Here is an explanation by Don Baarda on the inner workings of RRDtool.
343 It may help you to sort out why all this *UNKNOWN* data is popping
344 up in your databases:
346 RRDtool gets fed samples at arbitrary times. From these it builds Primary
347 Data Points (PDPs) at exact times on every "step" interval. The PDPs are
348 then accumulated into RRAs.
350 The "heartbeat" defines the maximum acceptable interval between
351 samples. If the interval between samples is less than "heartbeat",
352 then an average rate is calculated and applied for that interval. If
353 the interval between samples is longer than "heartbeat", then that
354 entire interval is considered "unknown". Note that there are other
355 things that can make a sample interval "unknown", such as the rate
356 exceeding limits, or even an "unknown" input sample.
358 The known rates during a PDP's "step" interval are used to calculate
359 an average rate for that PDP. Also, if the total "unknown" time during
360 the "step" interval exceeds the "heartbeat", the entire PDP is marked
361 as "unknown". This means that a mixture of known and "unknown" sample
362 times in a single PDP "step" may or may not add up to enough "unknown"
363 time to exceed "heartbeat" and hence mark the whole PDP "unknown". So
364 "heartbeat" is not only the maximum acceptable interval between
365 samples, but also the maximum acceptable amount of "unknown" time per
366 PDP (obviously this is only significant if you have "heartbeat" less
367 than "step").
369 The "heartbeat" can be short (unusual) or long (typical) relative to
370 the "step" interval between PDPs. A short "heartbeat" means you
371 require multiple samples per PDP, and if you don't get them mark the
372 PDP unknown. A long heartbeat can span multiple "steps", which means
373 it is acceptable to have multiple PDPs calculated from a single
374 sample. An extreme example of this might be a "step" of 5 minutes and a
375 "heartbeat" of one day, in which case a single sample every day will
376 result in all the PDPs for that entire day period being set to the
377 same average rate. I<-- Don Baarda E<lt>don.baarda@baesystems.comE<gt>>
379        time|
380        axis|
381  begin__|00|
382         |01|
383        u|02|----* sample1, restart "hb"-timer
384        u|03|   /
385        u|04|  /
386        u|05| /
387        u|06|/     "hbt" expired
388        u|07|
389         |08|----* sample2, restart "hb" 
390         |09|   / 
391         |10|  /
392        u|11|----* sample3, restart "hb"
393        u|12|   /
394        u|13|  /
395  step1_u|14| /
396        u|15|/     "swt" expired
397        u|16|
398         |17|----* sample4, restart "hb", create "pdp" for step1 = 
399         |18|   /  = unknown due to 10 "u" labled secs > "hb"
400         |19|  /
401         |20| /
402         |21|----* sample5, restart "hb"
403         |22|   /
404         |23|  /
405         |24|----* sample6, restart "hb"
406         |25|   /
407         |26|  /
408         |27|----* sample7, restart "hb"
409  step2__|28|   /
410         |22|  /
411         |23|----* sample8, restart "hb", create "pdp" for step1, create "cdp" 
412         |24|   /
413         |25|  /
415 graphics by I<vladimir.lavrov@desy.de>.
418 =head1 HOW TO MEASURE
420 Here are a few hints on how to measure:
422 =over
425 =item Temperature
427 Usually you have some type of meter you can read to get the temperature.
428 The temperature is not really connected with a time. The only connection is
429 that the temperature reading happened at a certain time. You can use the
430 B<GAUGE> data source type for this. RRDtool will then record your reading
431 together with the time.
433 =item Mail Messages
435 Assume you have a method to count the number of messages transported by
436 your mailserver in a certain amount of time, giving you data like '5
437 messages in the last 65 seconds'. If you look at the count of 5 like an
438 B<ABSOLUTE> data type you can simply update the RRD with the number 5 and the
439 end time of your monitoring period. RRDtool will then record the number of
440 messages per second. If at some later stage you want to know the number of
441 messages transported in a day, you can get the average messages per second
442 from RRDtool for the day in question and multiply this number with the
443 number of seconds in a day. Because all math is run with Doubles, the
444 precision should be acceptable.
446 =item It's always a Rate
448 RRDtool stores rates in amount/second for COUNTER, DERIVE and ABSOLUTE
449 data.  When you plot the data, you will get on the y axis
450 amount/second which you might be tempted to convert to an absolute
451 amount by multiplying by the delta-time between the points. RRDtool
452 plots continuous data, and as such is not appropriate for plotting
453 absolute amounts as for example "total bytes" sent and received in a
454 router. What you probably want is plot rates that you can scale to
455 bytes/hour, for example, or plot absolute amounts with another tool
456 that draws bar-plots, where the delta-time is clear on the plot for
457 each point (such that when you read the graph you see for example GB
458 on the y axis, days on the x axis and one bar for each day).
460 =back
463 =head1 EXAMPLE
465  rrdtool create temperature.rrd --step 300 \
466   DS:temp:GAUGE:600:-273:5000 \
467   RRA:AVERAGE:0.5:1:1200 \
468   RRA:MIN:0.5:12:2400 \
469   RRA:MAX:0.5:12:2400 \
470   RRA:AVERAGE:0.5:12:2400
472 This sets up an B<RRD> called F<temperature.rrd> which accepts one
473 temperature value every 300 seconds. If no new data is supplied for
474 more than 600 seconds, the temperature becomes I<*UNKNOWN*>.  The
475 minimum acceptable value is -273 and the maximum is 5'000.
477 A few archive areas are also defined. The first stores the
478 temperatures supplied for 100 hours (1'200 * 300 seconds = 100
479 hours). The second RRA stores the minimum temperature recorded over
480 every hour (12 * 300 seconds = 1 hour), for 100 days (2'400 hours). The
481 third and the fourth RRA's do the same for the maximum and
482 average temperature, respectively.
484 =head1 EXAMPLE 2
486  rrdtool create monitor.rrd --step 300        \
487    DS:ifOutOctets:COUNTER:1800:0:4294967295   \
488    RRA:AVERAGE:0.5:1:2016                     \
489    RRA:HWPREDICT:1440:0.1:0.0035:288
491 This example is a monitor of a router interface. The first B<RRA> tracks the
492 traffic flow in octets; the second B<RRA> generates the specialized
493 functions B<RRAs> for aberrant behavior detection. Note that the I<rra-num>
494 argument of HWPREDICT is missing, so the other B<RRAs> will implicitly be
495 created with default parameter values. In this example, the forecasting
496 algorithm baseline adapts quickly; in fact the most recent one hour of
497 observations (each at 5 minute intervals) accounts for 75% of the baseline
498 prediction. The linear trend forecast adapts much more slowly. Observations
499 made during the last day (at 288 observations per day) account for only
500 65% of the predicted linear trend. Note: these computations rely on an
501 exponential smoothing formula described in the LISA 2000 paper.
503 The seasonal cycle is one day (288 data points at 300 second intervals), and
504 the seasonal adaption parameter will be set to 0.1. The RRD file will store 5
505 days (1'440 data points) of forecasts and deviation predictions before wrap
506 around. The file will store 1 day (a seasonal cycle) of 0-1 indicators in
507 the FAILURES B<RRA>.
509 The same RRD file and B<RRAs> are created with the following command,
510 which explicitly creates all specialized function B<RRAs>.
512  rrdtool create monitor.rrd --step 300 \
513    DS:ifOutOctets:COUNTER:1800:0:4294967295 \
514    RRA:AVERAGE:0.5:1:2016 \
515    RRA:HWPREDICT:1440:0.1:0.0035:288:3 \
516    RRA:SEASONAL:288:0.1:2 \
517    RRA:DEVPREDICT:1440:5 \
518    RRA:DEVSEASONAL:288:0.1:2 \
519    RRA:FAILURES:288:7:9:5
521 Of course, explicit creation need not replicate implicit create, a
522 number of arguments could be changed.
524 =head1 EXAMPLE 3
526  rrdtool create proxy.rrd --step 300 \
527    DS:Total:DERIVE:1800:0:U  \
528    DS:Duration:DERIVE:1800:0:U  \
529    DS:AvgReqDur:COMPUTE:Duration,Requests,0,EQ,1,Requests,IF,/ \
530    RRA:AVERAGE:0.5:1:2016
532 This example is monitoring the average request duration during each 300 sec
533 interval for requests processed by a web proxy during the interval.
534 In this case, the proxy exposes two counters, the number of requests
535 processed since boot and the total cumulative duration of all processed
536 requests. Clearly these counters both have some rollover point, but using the
537 DERIVE data source also handles the reset that occurs when the web proxy is
538 stopped and restarted.
540 In the B<RRD>, the first data source stores the requests per second rate
541 during the interval. The second data source stores the total duration of all
542 requests processed during the interval divided by 300. The COMPUTE data source
543 divides each PDP of the AccumDuration by the corresponding PDP of
544 TotalRequests and stores the average request duration. The remainder of the
545 RPN expression handles the divide by zero case.
547 =head1 AUTHOR
549 Tobias Oetiker E<lt>tobi@oetiker.chE<gt>