17603: Enable webshell role pillars in provision script
[arvados.git] / doc / install / salt-multi-host.html.textile.liquid
1 ---
2 layout: default
3 navsection: installguide
4 title: Multi host Arvados
5 ...
6 {% comment %}
7 Copyright (C) The Arvados Authors. All rights reserved.
8
9 SPDX-License-Identifier: CC-BY-SA-3.0
10 {% endcomment %}
11
12 # "Hosts preparation":#hosts_preparation
13 ## "Hosts setup using terraform (experimental)":#hosts_setup_using_terraform
14 ## "Create a compute image":#create_a_compute_image
15 # "Multi host install using the provision.sh script":#multi_host
16 # "Choose the desired configuration":#choose_configuration
17 ## "Multiple hosts / multiple hostnames":#multi_host_multi_hostnames
18 ## "Further customization of the installation (modifying the salt pillars and states)":#further_customization
19 # "Installation order":#installation_order
20 # "Run the provision.sh script":#run_provision_script
21 # "Initial user and login":#initial_user
22 # "Test the installed cluster running a simple workflow":#test_install
23
24 h2(#hosts_preparation). Hosts preparation
25
26 In order to run Arvados on a multi-host installation, there are a few requirements that your infrastructure has to fulfill.
27
28 These instructions explain how to setup a multi-host environment that is suitable for production use of Arvados.
29
30 We suggest distributing the Arvados components in the following way, creating at least 6 hosts:
31
32 # Database server:
33 ## postgresql server
34 # API node:
35 ## arvados api server
36 ## arvados controller
37 ## arvados websocket
38 ## arvados cloud dispatcher
39 # WORKBENCH node:
40 ## arvados workbench
41 ## arvados workbench2
42 ## arvados webshell
43 # KEEPPROXY node:
44 ## arvados keepproxy
45 ## arvados keepweb
46 # KEEPSTOREs (at least 2)
47 ## arvados keepstore
48 # SHELL node (optional):
49 ## arvados shell
50
51 Note that these hosts can be virtual machines in your infrastructure and they don't need to be physical machines.
52
53 h3(#hosts_setup_using_terraform). Hosts setup using terraform (experimental)
54
55 We added a few "terraform":https://terraform.io/ scripts (https://github.com/arvados/arvados/tree/master/tools/terraform) to let you create these instances easier.
56 Check "the Arvados terraform documentation":/doc/install/terraform.html for more details.
57
58 h2(#multi_host). Multi host install using the provision.sh script
59
60 This is a package-based installation method. The Salt scripts are available from the "tools/salt-install":https://github.com/arvados/arvados/tree/master/tools/salt-install directory in the Arvados git repository.
61
62 This procedure will install all the main Arvados components to get you up and running in a multi host environment.
63
64 We suggest you to use the @provision.sh@ script to deploy Arvados, which is implemented with the @arvados-formula@ in a Saltstack master-less setup. After setting up a few variables in a config file (next step), you'll be ready to run it and get Arvados deployed.
65
66 h3(#create_a_compute_image). Create a compute image
67
68 In a multi-host installation, containers are dispatched in docker daemons running in the <i>compute instances</i>, which need some special setup. We provide a "compute image builder script":https://github.com/arvados/arvados/tree/master/tools/compute-images that you can use to build a template image following "these instructions":https://doc.arvados.org/main/install/crunch2-cloud/install-compute-node.html . Once you have that image created, you can use the image reference in the Arvados configuration in the next steps.
69
70 h2(#choose_configuration). Choose the desired configuration
71
72 For documentation's sake, we will use the cluster name <i>arva2</i> and the domain <i>arv.local</i>. If you don't change them as required in the next steps, installation won't proceed.
73
74 We will try to provide a few Arvados' multi host installation configurations examples for different infrastructure providers. Currently only AWS is available but they can be used with almost any provider with little changes.
75
76 You need to copy one of the example configuration files and directory, and edit them to suit your needs.
77
78 h3(#multi_host_multi_hostnames). Multiple hosts / multiple hostnames
79 <notextile>
80 <pre><code>cp local.params.example.multiple_hosts local.params
81 cp -r config_examples/multi_host/aws local_config_dir
82 </code></pre>
83 </notextile>
84
85 Edit the variables in the <i>local.params</i> file. Pay attention to the <b>*_INT_IP, *_TOKEN</b> and <b>*KEY</b> variables. Those variables will be used to do a search and replace on the <i>pillars/*</i> in place of any matching __VARIABLE__.
86
87 The <i>multi_host</i> include LetsEncrypt salt code to automatically request and install the certificates for the public-facing hosts (API, Workbench) so it will need the hostnames to be reachable from the Internet. If this cluster will not be the case, please set the variable <i>USE_LETSENCRYPT=no</i>.
88
89 h3(#further_customization). Further customization of the installation (modifying the salt pillars and states)
90
91 You will need further customization to suit your environment, which can be done editing the Saltstack pillars and states files. Pay particular attention to the <i>pillars/arvados.sls</i> file, where you will need to provide some information that can be retrieved as output of the terraform run.
92
93 Any extra <i>state</i> file you add under <i>local_config_dir/states</i> will be added to the salt run and applied to the hosts.
94
95 h2(#installation_order). Installation order
96
97 A few Arvados nodes need to be installed in certain order. The required order is
98
99 #. Database
100 #. API server
101 #. The other nodes can be installed in any order after the two above
102
103 h2(#run_provision_script). Run the provision.sh script
104
105 When you finished customizing the configuration, you are ready to copy the files to the hosts and run the @provision.sh@ script. The script allows you to specify the <i>role/s</i> a node will have and it will install only the Arvados components required for such role. The general format of the command is:
106
107 <notextile>
108 <pre><code>scp -r provision.sh local* user@host:
109 ssh user@host sudo ./provision.sh --roles comma,separated,list,of,roles,to,apply
110 </code></pre>
111 </notextile>
112
113 and wait for it to finish.
114
115 If everything goes OK, you'll get some final lines stating something like:
116
117 <notextile>
118 <pre><code>arvados: Succeeded: 109 (changed=9)
119 arvados: Failed:      0
120 </code></pre>
121 </notextile>
122
123 The distribution of role as described above can be applied running these commands:
124
125 #. Database
126 <notextile>
127 <pre><code>scp -r provision.sh local* user@host:
128 ssh user@host sudo ./provision.sh --config local.params --roles database
129 </code></pre>
130 </notextile>
131
132 #. API
133 <notextile>
134 <pre><code>scp -r provision.sh local* user@host:
135 ssh user@host sudo ./provision.sh --config local.params --roles api,controller,websocket,dispatcher
136 </code></pre>
137 </notextile>
138
139 #. Keepstore/s
140 <notextile>
141 <pre><code>scp -r provision.sh local* user@host:
142 ssh user@host sudo ./provision.sh --config local.params --roles keepstore
143 </code></pre>
144 </notextile>
145
146 #. Workbench
147 <notextile>
148 <pre><code>scp -r provision.sh local* user@host:
149 ssh user@host sudo ./provision.sh --config local.params --roles workbench,workbench2,webshell
150 </code></pre>
151 </notextile>
152
153 #. Keepproxy / Keepweb
154 <notextile>
155 <pre><code>scp -r provision.sh local* user@host:
156 ssh user@host sudo ./provision.sh --config local.params --roles keepproxy,keepweb
157 </code></pre>
158 </notextile>
159
160 #. Shell (here we copy the CLI test workflow too)
161 <notextile>
162 <pre><code>scp -r provision.sh local* tests user@host:
163 ssh user@host sudo ./provision.sh --config local.params --roles shell
164 </code></pre>
165 </notextile>
166
167 h2(#initial_user). Initial user and login 
168
169 At this point you should be able to log into the Arvados cluster. The initial URL will be:
170
171 * https://workbench.arva2.arv.local
172
173 or, in general, the url format will be:
174
175 * https://workbench.@<cluster>.<domain>@
176
177 By default, the provision script creates an initial user for testing purposes. This user is configured as administrator of the newly created cluster.
178
179 Assuming you didn't change these values in the @local.params@ file, the initial credentials are:
180
181 * User: 'admin'
182 * Password: 'password'
183 * Email: 'admin@arva2.arv.local'
184
185 h2(#test_install). Test the installed cluster running a simple workflow
186
187 If you followed the instructions above, the @provision.sh@ script saves a simple example test workflow in the @/tmp/cluster_tests@ directory in the @shell@ node. If you want to run it, just ssh to the node, change to that directory and run:
188
189 <notextile>
190 <pre><code>cd /tmp/cluster_tests
191 sudo /run-test.sh
192 </code></pre>
193 </notextile>
194
195 It will create a test user (by default, the same one as the admin user), upload a small workflow and run it. If everything goes OK, the output should similar to this (some output was shortened for clarity):
196
197 <notextile>
198 <pre><code>Creating Arvados Standard Docker Images project
199 Arvados project uuid is 'arva2-j7d0g-0prd8cjlk6kfl7y'
200 {
201  ...
202  "uuid":"arva2-o0j2j-n4zu4cak5iifq2a",
203  "owner_uuid":"arva2-tpzed-000000000000000",
204  ...
205 }
206 Uploading arvados/jobs' docker image to the project
207 2.1.1: Pulling from arvados/jobs
208 8559a31e96f4: Pulling fs layer
209 ...
210 Status: Downloaded newer image for arvados/jobs:2.1.1
211 docker.io/arvados/jobs:2.1.1
212 2020-11-23 21:43:39 arvados.arv_put[32678] INFO: Creating new cache file at /home/vagrant/.cache/arvados/arv-put/c59256eda1829281424c80f588c7cc4d
213 2020-11-23 21:43:46 arvados.arv_put[32678] INFO: Collection saved as 'Docker image arvados jobs:2.1.1 sha256:0dd50'
214 arva2-4zz18-1u5pvbld7cvxuy2
215 Creating initial user ('admin')
216 Setting up user ('admin')
217 {
218  "items":[
219   {
220    ...
221    "owner_uuid":"arva2-tpzed-000000000000000",
222    ...
223    "uuid":"arva2-o0j2j-1ownrdne0ok9iox"
224   },
225   {
226    ...
227    "owner_uuid":"arva2-tpzed-000000000000000",
228    ...
229    "uuid":"arva2-o0j2j-1zbeyhcwxc1tvb7"
230   },
231   {
232    ...
233    "email":"admin@arva2.arv.local",
234    ...
235    "owner_uuid":"arva2-tpzed-000000000000000",
236    ...
237    "username":"admin",
238    "uuid":"arva2-tpzed-3wrm93zmzpshrq2",
239    ...
240   }
241  ],
242  "kind":"arvados#HashList"
243 }
244 Activating user 'admin'
245 {
246  ...
247  "email":"admin@arva2.arv.local",
248  ...
249  "username":"admin",
250  "uuid":"arva2-tpzed-3wrm93zmzpshrq2",
251  ...
252 }
253 Running test CWL workflow
254 INFO /usr/bin/cwl-runner 2.1.1, arvados-python-client 2.1.1, cwltool 3.0.20200807132242
255 INFO Resolved 'hasher-workflow.cwl' to 'file:///tmp/cluster_tests/hasher-workflow.cwl'
256 ...
257 INFO Using cluster arva2 (https://arva2.arv.local:8443/)
258 INFO Upload local files: "test.txt"
259 INFO Uploaded to ea34d971b71d5536b4f6b7d6c69dc7f6+50 (arva2-4zz18-c8uvwqdry4r8jao)
260 INFO Using collection cache size 256 MiB
261 INFO [container hasher-workflow.cwl] submitted container_request arva2-xvhdp-v1bkywd58gyocwm
262 INFO [container hasher-workflow.cwl] arva2-xvhdp-v1bkywd58gyocwm is Final
263 INFO Overall process status is success
264 INFO Final output collection d6c69a88147dde9d52a418d50ef788df+123
265 {
266     "hasher_out": {
267         "basename": "hasher3.md5sum.txt",
268         "class": "File",
269         "location": "keep:d6c69a88147dde9d52a418d50ef788df+123/hasher3.md5sum.txt",
270         "size": 95
271     }
272 }
273 INFO Final process status is success
274 </code></pre>
275 </notextile>