15107: Add LoginCluster test.
[arvados.git] / services / nodemanager / tests / fake_ec2.cfg.template
1 # Copyright (C) The Arvados Authors. All rights reserved.
2 #
3 # SPDX-License-Identifier: AGPL-3.0
4
5 # Azure configuration for Arvados Node Manager.
6 # All times are in seconds unless specified otherwise.
7
8 [Manage]
9 # The management server responds to http://addr:port/status.json with
10 # a snapshot of internal state.
11
12 # Management server listening address (default 127.0.0.1)
13 #address = 0.0.0.0
14
15 # Management server port number (default -1, server is disabled)
16 #port = 8989
17
18 [Daemon]
19 # The dispatcher can customize the start and stop procedure for
20 # cloud nodes.  For example, the SLURM dispatcher drains nodes
21 # through SLURM before shutting them down.
22 #dispatcher = slurm
23
24 # Node Manager will ensure that there are at least this many nodes running at
25 # all times.  If node manager needs to start new idle nodes for the purpose of
26 # satisfying min_nodes, it will use the cheapest node type.  However, depending
27 # on usage patterns, it may also satisfy min_nodes by keeping alive some
28 # more-expensive nodes
29 min_nodes = 0
30
31 # Node Manager will not start any compute nodes when at least this
32 # many are running.
33 max_nodes = 8
34
35 # Upper limit on rate of spending (in $/hr), will not boot additional nodes
36 # if total price of already running nodes meets or exceeds this threshold.
37 # default 0 means no limit.
38 max_total_price = 0
39
40 # Poll Azure nodes and Arvados for new information every N seconds.
41 poll_time = 0.5
42
43 # Polls have exponential backoff when services fail to respond.
44 # This is the longest time to wait between polls.
45 max_poll_time = 1
46
47 # If Node Manager can't succesfully poll a service for this long,
48 # it will never start or stop compute nodes, on the assumption that its
49 # information is too outdated.
50 poll_stale_after = 1
51
52 # If Node Manager boots a cloud node, and it does not pair with an Arvados
53 # node before this long, assume that there was a cloud bootstrap failure and
54 # shut it down.  Note that normal shutdown windows apply (see the Cloud
55 # section), so this should be shorter than the first shutdown window value.
56 boot_fail_after = 45
57
58 # "Node stale time" affects two related behaviors.
59 # 1. If a compute node has been running for at least this long, but it
60 # isn't paired with an Arvados node, do not shut it down, but leave it alone.
61 # This prevents the node manager from shutting down a node that might
62 # actually be doing work, but is having temporary trouble contacting the
63 # API server.
64 # 2. When the Node Manager starts a new compute node, it will try to reuse
65 # an Arvados node that hasn't been updated for this long.
66 node_stale_after = 14400
67
68 # Scaling factor to be applied to nodes' available RAM size. Usually there's a
69 # variable discrepancy between the advertised RAM value on cloud nodes and the
70 # actual amount available.
71 # If not set, this value will be set to 0.95
72 node_mem_scaling = 0.95
73
74 # File path for Certificate Authorities
75 certs_file = /etc/ssl/certs/ca-certificates.crt
76
77 [Logging]
78 # Log file path
79 #file = node-manager.log
80
81 # Log level for most Node Manager messages.
82 # Choose one of DEBUG, INFO, WARNING, ERROR, or CRITICAL.
83 # WARNING lets you know when polling a service fails.
84 # INFO additionally lets you know when a compute node is started or stopped.
85 level = DEBUG
86
87 # You can also set different log levels for specific libraries.
88 # Pykka is the Node Manager's actor library.
89 # Setting this to DEBUG will display tracebacks for uncaught
90 # exceptions in the actors, but it's also very chatty.
91 pykka = WARNING
92
93 # Setting apiclient to INFO will log the URL of every Arvados API request.
94 apiclient = WARNING
95
96 [Arvados]
97 host = {host}
98 token = {token}
99 timeout = 15
100 jobs_queue = no
101
102 # Accept an untrusted SSL certificate from the API server?
103 insecure = yes
104
105 [Cloud]
106 provider = ec2
107 driver_class = {driver_class}
108
109 # Shutdown windows define periods of time when a node may and may not be shut
110 # down.  These are windows in full minutes, separated by commas.  Counting from
111 # the time the node is booted, the node WILL NOT shut down for N1 minutes; then
112 # it MAY shut down for N2 minutes; then it WILL NOT shut down for N3 minutes;
113 # and so on.  For example, "20, 999999" means the node may shut down between
114 # the 20th and 999999th minutes of uptime.
115 # Azure bills by the minute, so it makes sense to agressively shut down idle
116 # nodes.  Specify at least two windows.  You can add as many as you need beyond
117 # that.
118 shutdown_windows = 0.05, 999999
119
120 [Cloud Credentials]
121
122 key = 00000000-0000-0000-0000-000000000000
123 secret = PASSWORD
124 timeout = 60
125 region = East US
126
127 [Cloud List]
128
129 [Cloud Create]
130 # The image id
131 image = fake_image_id
132
133 # Path to a local ssh key file that will be used to provision new nodes.
134 ssh_key = {ssh_key}
135
136 # the API server to ping
137 ping_host = {host}
138
139 # You can define any number of Size sections to list Azure sizes you're willing
140 # to use.  The Node Manager should boot the cheapest size(s) that can run jobs
141 # in the queue.  You must also provide price per hour as the Azure driver
142 # compute currently does not report prices.
143 #
144 # See https://azure.microsoft.com/en-us/pricing/details/virtual-machines/
145 # for a list of known machine types that may be used as a Size parameter.
146 #
147 # Each size section MUST define the number of cores are available in this
148 # size class (since libcloud does not provide any consistent API for exposing
149 # this setting).
150 # You may also want to define the amount of scratch space (expressed
151 # in GB) for Crunch jobs.  You can also override Microsoft's provided
152 # data fields by setting them here.
153
154 [Size m4.xlarge]
155 cores = 4
156 price = 0.56
157 scratch = 250
158
159 [Size m4.2xlarge]
160 cores = 8
161 price = 1.12
162 scratch = 500