17742: add documentation about custom certs usage
[arvados.git] / doc / install / salt-multi-host.html.textile.liquid
1 ---
2 layout: default
3 navsection: installguide
4 title: Multi host Arvados
5 ...
6 {% comment %}
7 Copyright (C) The Arvados Authors. All rights reserved.
8
9 SPDX-License-Identifier: CC-BY-SA-3.0
10 {% endcomment %}
11
12 # "Introduction":#introduction
13 # "Hosts preparation":#hosts_preparation
14 ## "Hosts setup using terraform (experimental)":#hosts_setup_using_terraform
15 ## "Create a compute image":#create_a_compute_image
16 # "Multi host install using the provision.sh script":#multi_host
17 # "Choose the desired configuration":#choose_configuration
18 ## "Multiple hosts / multiple hostnames":#multi_host_multi_hostnames
19 ## "Further customization of the installation (modifying the salt pillars and states)":#further_customization
20 # "Installation order":#installation_order
21 # "Run the provision.sh script":#run_provision_script
22 # "Initial user and login":#initial_user
23 # "Test the installed cluster running a simple workflow":#test_install
24
25
26
27 h2(#introduction). Introduction
28
29 Arvados components can be installed in a distributed infrastructure, whether it is an "on-prem" with physical or virtual hosts, or a cloud environment.
30
31 As infrastructures vary a great deal from site to site, these instructions should be considered more as 'guidelines' than fixed steps to follow.
32
33 We provide an "installer script":salt.html that can help you deploy the different Arvados components. At the time of writing, the provided examples are suitable to install Arvados on AWS.
34
35
36
37 h2(#hosts_preparation). Hosts preparation
38
39 In order to run Arvados on a multi-host installation, there are a few requirements that your infrastructure has to fulfill.
40
41 These instructions explain how to setup a multi-host environment that is suitable for production use of Arvados.
42
43 We suggest distributing the Arvados components in the following way, creating at least 6 hosts:
44
45 # Database server:
46 ## postgresql server
47 # API node:
48 ## arvados api server
49 ## arvados controller
50 ## arvados websocket
51 ## arvados cloud dispatcher
52 # WORKBENCH node:
53 ## arvados workbench
54 ## arvados workbench2
55 ## arvados webshell
56 # KEEPPROXY node:
57 ## arvados keepproxy
58 ## arvados keepweb
59 # KEEPSTOREs (at least 2)
60 ## arvados keepstore
61 # SHELL node (optional):
62 ## arvados shell
63
64 Note that these hosts can be virtual machines in your infrastructure and they don't need to be physical machines.
65
66 Again, if your infrastructure differs from the setup proposed above (ie, using RDS or an existing DB server), remember that you will need to edit the configuration files for the scripts so they work with your infrastructure.
67
68
69 h3(#hosts_setup_using_terraform). Hosts setup using terraform (AWS, experimental)
70
71 We added a few "terraform":https://terraform.io/ scripts (https://github.com/arvados/arvados/tree/main/tools/terraform) to let you create these instances easier in an AWS account. Check "the Arvados terraform documentation":/doc/install/terraform.html for more details.
72
73
74
75
76 h2(#multi_host). Multi host install using the provision.sh script
77
78 {% include 'branchname' %}
79
80 This is a package-based installation method. Start with the @provision.sh@ script which is available by cloning the @{{ branchname }}@ branch from "https://git.arvados.org/arvados.git":https://git.arvados.org/arvados.git . The @provision.sh@ script and its supporting files can be found in the "arvados/tools/salt-install":https://git.arvados.org/arvados.git/tree/refs/heads/{{ branchname }}:/tools/salt-install directory in the Arvados git repository.
81
82 This procedure will install all the main Arvados components to get you up and running in a multi-host environment.
83
84 The @provision.sh@ script will help you deploy Arvados by preparing your environment to be able to run the installer, then running it. The actual installer is located at "arvados-formula":https://git.arvados.org/arvados-formula.git/tree/refs/heads/{{ branchname }} and will be cloned during the running of the @provision.sh@ script.  The installer is built using "Saltstack":https://saltproject.io/ and @provision.sh@ performs the install using master-less mode.
85
86 After setting up a few variables in a config file (next step), you'll be ready to run it and get Arvados deployed.
87
88 h3(#create_a_compute_image). Create a compute image
89
90 In a multi-host installation, containers are dispatched in docker daemons running in the <i>compute instances</i>, which need some special setup. We provide a "compute image builder script":https://github.com/arvados/arvados/tree/main/tools/compute-images that you can use to build a template image following "these instructions":https://doc.arvados.org/main/install/crunch2-cloud/install-compute-node.html . Once you have that image created, you can use the image ID in the Arvados configuration in the next steps.
91
92 h2(#choose_configuration). Choose the desired configuration
93
94 For documentation's sake, we will use the cluster name <i>arva2</i> and the domain <i>arv.local</i>. If you don't change them as required in the next steps, installation won't proceed.
95
96 We will try to provide a few Arvados' multi host installation configurations examples for different infrastructure providers. Currently only AWS is available but they can be used with almost any provider with little changes.
97
98 You need to copy one of the example configuration files and directory, and edit them to suit your needs.
99
100 h3(#multi_host_multi_hostnames). Multiple hosts / multiple hostnames
101 <notextile>
102 <pre><code>cp local.params.example.multiple_hosts local.params
103 cp -r config_examples/multi_host/aws local_config_dir
104 </code></pre>
105 </notextile>
106
107 Edit the variables in the <i>local.params</i> file. Pay attention to the <b>*_INT_IP, *_TOKEN</b> and <b>*KEY</b> variables. Those variables will be used to do a search and replace on the <i>pillars/*</i> in place of any matching __VARIABLE__.
108
109 The <i>multi_host</i> include LetsEncrypt salt code to automatically request and install the certificates for the public-facing hosts (API/controller, Workbench, Keepproxy/Keepweb) using AWS' Route53.
110
111 If you plan to use custom certificates, please set the variable <i>USE_LETSENCRYPT=no</i> and copy your certificates to the directory specified with the variable @CUSTOM_CERTS_DIR@ (usually "./certs") in the remote directory where you copied the @provision.sh@ script. From this dir, the provision script will install the certificates required for the role you're installing.
112
113 The script expects cert/key files with these basenames (matching the role except for <i>keepweb</i>, which is split in both <i>downoad / collections</i>):
114
115 * "controller"
116 * "websocket"
117 * "workbench"
118 * "workbench2"
119 * "webshell"
120 * "download"         # Part of keepweb
121 * "collections"      # Part of keepweb
122 * "keepproxy"
123
124 Ie., for 'keepproxy', the script will lookup for
125
126 <notextile>
127 <pre><code>${CUSTOM_CERTS_DIR}/keepproxy.crt
128 ${CUSTOM_CERTS_DIR}/keepproxy.key
129 </code></pre>
130 </notextile>
131
132 h3(#further_customization). Further customization of the installation (modifying the salt pillars and states)
133
134 You will need further customization to suit your environment, which can be done editing the Saltstack pillars and states files. Pay particular attention to the <i>pillars/arvados.sls</i> file, where you will need to provide some information that can be retrieved as output of the terraform run.
135
136 Any extra <i>state</i> file you add under <i>local_config_dir/states</i> will be added to the salt run and applied to the hosts.
137
138 h2(#installation_order). Installation order
139
140 A few Arvados nodes need to be installed in certain order. The required order is
141
142 #. Database
143 #. API server
144 #. The other nodes can be installed in any order after the two above
145
146 h2(#run_provision_script). Run the provision.sh script
147
148 When you finished customizing the configuration, you are ready to copy the files to the hosts and run the @provision.sh@ script. The script allows you to specify the <i>role/s</i> a node will have and it will install only the Arvados components required for such role. The general format of the command is:
149
150 <notextile>
151 <pre><code>scp -r provision.sh local* user@host:
152 ssh user@host sudo ./provision.sh --roles comma,separated,list,of,roles,to,apply
153 </code></pre>
154 </notextile>
155
156 and wait for it to finish.
157
158 If everything goes OK, you'll get some final lines stating something like:
159
160 <notextile>
161 <pre><code>arvados: Succeeded: 109 (changed=9)
162 arvados: Failed:      0
163 </code></pre>
164 </notextile>
165
166 The distribution of role as described above can be applied running these commands:
167
168 #. Database
169 <notextile>
170 <pre><code>scp -r provision.sh local* user@host:
171 ssh user@host sudo ./provision.sh --config local.params --roles database
172 </code></pre>
173 </notextile>
174
175 #. API
176 <notextile>
177 <pre><code>scp -r provision.sh local* user@host:
178 ssh user@host sudo ./provision.sh --config local.params --roles api,controller,websocket,dispatcher
179 </code></pre>
180 </notextile>
181
182 #. Keepstore/s
183 <notextile>
184 <pre><code>scp -r provision.sh local* user@host:
185 ssh user@host sudo ./provision.sh --config local.params --roles keepstore
186 </code></pre>
187 </notextile>
188
189 #. Workbench
190 <notextile>
191 <pre><code>scp -r provision.sh local* user@host:
192 ssh user@host sudo ./provision.sh --config local.params --roles workbench,workbench2,webshell
193 </code></pre>
194 </notextile>
195
196 #. Keepproxy / Keepweb
197 <notextile>
198 <pre><code>scp -r provision.sh local* user@host:
199 ssh user@host sudo ./provision.sh --config local.params --roles keepproxy,keepweb
200 </code></pre>
201 </notextile>
202
203 #. Shell (here we copy the CLI test workflow too)
204 <notextile>
205 <pre><code>scp -r provision.sh local* tests user@host:
206 ssh user@host sudo ./provision.sh --config local.params --roles shell
207 </code></pre>
208 </notextile>
209
210 h2(#initial_user). Initial user and login
211
212 At this point you should be able to log into the Arvados cluster. The initial URL will be:
213
214 * https://workbench.arva2.arv.local
215
216 or, in general, the url format will be:
217
218 * https://workbench.@<cluster>.<domain>@
219
220 By default, the provision script creates an initial user for testing purposes. This user is configured as administrator of the newly created cluster.
221
222 Assuming you didn't change these values in the @local.params@ file, the initial credentials are:
223
224 * User: 'admin'
225 * Password: 'password'
226 * Email: 'admin@arva2.arv.local'
227
228 h2(#test_install). Test the installed cluster running a simple workflow
229
230 If you followed the instructions above, the @provision.sh@ script saves a simple example test workflow in the @/tmp/cluster_tests@ directory in the @shell@ node. If you want to run it, just ssh to the node, change to that directory and run:
231
232 <notextile>
233 <pre><code>cd /tmp/cluster_tests
234 sudo /run-test.sh
235 </code></pre>
236 </notextile>
237
238 It will create a test user (by default, the same one as the admin user), upload a small workflow and run it. If everything goes OK, the output should similar to this (some output was shortened for clarity):
239
240 <notextile>
241 <pre><code>Creating Arvados Standard Docker Images project
242 Arvados project uuid is 'arva2-j7d0g-0prd8cjlk6kfl7y'
243 {
244  ...
245  "uuid":"arva2-o0j2j-n4zu4cak5iifq2a",
246  "owner_uuid":"arva2-tpzed-000000000000000",
247  ...
248 }
249 Uploading arvados/jobs' docker image to the project
250 2.1.1: Pulling from arvados/jobs
251 8559a31e96f4: Pulling fs layer
252 ...
253 Status: Downloaded newer image for arvados/jobs:2.1.1
254 docker.io/arvados/jobs:2.1.1
255 2020-11-23 21:43:39 arvados.arv_put[32678] INFO: Creating new cache file at /home/vagrant/.cache/arvados/arv-put/c59256eda1829281424c80f588c7cc4d
256 2020-11-23 21:43:46 arvados.arv_put[32678] INFO: Collection saved as 'Docker image arvados jobs:2.1.1 sha256:0dd50'
257 arva2-4zz18-1u5pvbld7cvxuy2
258 Creating initial user ('admin')
259 Setting up user ('admin')
260 {
261  "items":[
262   {
263    ...
264    "owner_uuid":"arva2-tpzed-000000000000000",
265    ...
266    "uuid":"arva2-o0j2j-1ownrdne0ok9iox"
267   },
268   {
269    ...
270    "owner_uuid":"arva2-tpzed-000000000000000",
271    ...
272    "uuid":"arva2-o0j2j-1zbeyhcwxc1tvb7"
273   },
274   {
275    ...
276    "email":"admin@arva2.arv.local",
277    ...
278    "owner_uuid":"arva2-tpzed-000000000000000",
279    ...
280    "username":"admin",
281    "uuid":"arva2-tpzed-3wrm93zmzpshrq2",
282    ...
283   }
284  ],
285  "kind":"arvados#HashList"
286 }
287 Activating user 'admin'
288 {
289  ...
290  "email":"admin@arva2.arv.local",
291  ...
292  "username":"admin",
293  "uuid":"arva2-tpzed-3wrm93zmzpshrq2",
294  ...
295 }
296 Running test CWL workflow
297 INFO /usr/bin/cwl-runner 2.1.1, arvados-python-client 2.1.1, cwltool 3.0.20200807132242
298 INFO Resolved 'hasher-workflow.cwl' to 'file:///tmp/cluster_tests/hasher-workflow.cwl'
299 ...
300 INFO Using cluster arva2 (https://arva2.arv.local:8443/)
301 INFO Upload local files: "test.txt"
302 INFO Uploaded to ea34d971b71d5536b4f6b7d6c69dc7f6+50 (arva2-4zz18-c8uvwqdry4r8jao)
303 INFO Using collection cache size 256 MiB
304 INFO [container hasher-workflow.cwl] submitted container_request arva2-xvhdp-v1bkywd58gyocwm
305 INFO [container hasher-workflow.cwl] arva2-xvhdp-v1bkywd58gyocwm is Final
306 INFO Overall process status is success
307 INFO Final output collection d6c69a88147dde9d52a418d50ef788df+123
308 {
309     "hasher_out": {
310         "basename": "hasher3.md5sum.txt",
311         "class": "File",
312         "location": "keep:d6c69a88147dde9d52a418d50ef788df+123/hasher3.md5sum.txt",
313         "size": 95
314     }
315 }
316 INFO Final process status is success
317 </code></pre>
318 </notextile>