feat(provision): pin arvados version to latest stable
[arvados.git] / doc / install / salt-multi-host.html.textile.liquid
index bb8cd0bdf493d0a2988ac5e64a68ab54bf3c169c..827d65db28d4ad99089f42d47a2e07d94cf941ef 100644 (file)
@@ -85,7 +85,7 @@ Edit the variables in the <i>local.params</i> file. Pay attention to the <b>*_IN
 
 The <i>multi_host</i> include LetsEncrypt salt code to automatically request and install the certificates for the public-facing hosts (API, Workbench) so it will need the hostnames to be reachable from the Internet. If this cluster will not be the case, please set the variable <i>USE_LETSENCRYPT=no</i>.
 
-## "Further customization of the installation (modifying the salt pillars and states)":#further_customization
+h3(#further_customization). Further customization of the installation (modifying the salt pillars and states)
 
 You will need further customization to suit your environment, which can be done editing the Saltstack pillars and states files. Pay particular attention to the <i>pillars/arvados.sls</i> file, where you will need to provide some information that can be retrieved as output of the terraform run.
 
@@ -156,9 +156,9 @@ ssh user@host sudo ./provision.sh --config local.params --roles keepproxy,keepwe
 </code></pre>
 </notextile>
 
-#. Shell
+#. Shell (here we copy the CLI test workflow too)
 <notextile>
-<pre><code>scp -r provision.sh local* user@host:
+<pre><code>scp -r provision.sh local* tests user@host:
 ssh user@host sudo ./provision.sh --config local.params --roles shell
 </code></pre>
 </notextile>
@@ -183,11 +183,11 @@ Assuming you didn't change these values in the @local.params@ file, the initial
 
 h2(#test_install). Test the installed cluster running a simple workflow
 
-The @provision.sh@ script saves a simple example test workflow in the @/tmp/cluster_tests@ directory in the node. If you want to run it, just ssh to the node, change to that directory and run:
+If you followed the instructions above, the @provision.sh@ script saves a simple example test workflow in the @/tmp/cluster_tests@ directory in the @shell@ node. If you want to run it, just ssh to the node, change to that directory and run:
 
 <notextile>
 <pre><code>cd /tmp/cluster_tests
-./run-test.sh
+sudo /run-test.sh
 </code></pre>
 </notextile>