feat(provision): pin arvados version to latest stable
[arvados.git] / doc / install / salt-multi-host.html.textile.liquid
index 8011876a61a02d4b753160a36b0713fb7d329de7..827d65db28d4ad99089f42d47a2e07d94cf941ef 100644 (file)
@@ -85,7 +85,7 @@ Edit the variables in the <i>local.params</i> file. Pay attention to the <b>*_IN
 
 The <i>multi_host</i> include LetsEncrypt salt code to automatically request and install the certificates for the public-facing hosts (API, Workbench) so it will need the hostnames to be reachable from the Internet. If this cluster will not be the case, please set the variable <i>USE_LETSENCRYPT=no</i>.
 
-## "Further customization of the installation (modifying the salt pillars and states)":#further_customization
+h3(#further_customization). Further customization of the installation (modifying the salt pillars and states)
 
 You will need further customization to suit your environment, which can be done editing the Saltstack pillars and states files. Pay particular attention to the <i>pillars/arvados.sls</i> file, where you will need to provide some information that can be retrieved as output of the terraform run.
 
@@ -105,7 +105,7 @@ When you finished customizing the configuration, you are ready to copy the files
 
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --roles comma,separated,list,of,roles,to,apply
+ssh user@host sudo ./provision.sh --roles comma,separated,list,of,roles,to,apply
 </code></pre>
 </notextile>
 
@@ -124,42 +124,42 @@ The distribution of role as described above can be applied running these command
 #. Database
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --config local.params --roles database
+ssh user@host sudo ./provision.sh --config local.params --roles database
 </code></pre>
 </notextile>
 
 #. API
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --config local.params --roles api,controller,websocket,dispatcher
+ssh user@host sudo ./provision.sh --config local.params --roles api,controller,websocket,dispatcher
 </code></pre>
 </notextile>
 
 #. Keepstore/s
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --config local.params --roles keepstore
+ssh user@host sudo ./provision.sh --config local.params --roles keepstore
 </code></pre>
 </notextile>
 
 #. Workbench
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --config local.params --roles workbench,workbench2
+ssh user@host sudo ./provision.sh --config local.params --roles workbench,workbench2
 </code></pre>
 </notextile>
 
 #. Keepproxy / Keepweb
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --config local.params --roles keepproxy,keepweb
+ssh user@host sudo ./provision.sh --config local.params --roles keepproxy,keepweb
 </code></pre>
 </notextile>
 
-#. Shell
+#. Shell (here we copy the CLI test workflow too)
 <notextile>
-<pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --config local.params --roles shell
+<pre><code>scp -r provision.sh local* tests user@host:
+ssh user@host sudo ./provision.sh --config local.params --roles shell
 </code></pre>
 </notextile>
 
@@ -183,11 +183,11 @@ Assuming you didn't change these values in the @local.params@ file, the initial
 
 h2(#test_install). Test the installed cluster running a simple workflow
 
-The @provision.sh@ script saves a simple example test workflow in the @/tmp/cluster_tests@ directory in the node. If you want to run it, just ssh to the node, change to that directory and run:
+If you followed the instructions above, the @provision.sh@ script saves a simple example test workflow in the @/tmp/cluster_tests@ directory in the @shell@ node. If you want to run it, just ssh to the node, change to that directory and run:
 
 <notextile>
 <pre><code>cd /tmp/cluster_tests
-./run-test.sh
+sudo /run-test.sh
 </code></pre>
 </notextile>