17703: Salt install docs point to versioned branches to get the scripts.
[arvados.git] / doc / install / salt-multi-host.html.textile.liquid
index 8011876a61a02d4b753160a36b0713fb7d329de7..9322f698636beb4a6004aea857c7143939fd9573 100644 (file)
@@ -56,11 +56,19 @@ Check "the Arvados terraform documentation":/doc/install/terraform.html for more
 
 h2(#multi_host). Multi host install using the provision.sh script
 
-This is a package-based installation method. The Salt scripts are available from the "tools/salt-install":https://github.com/arvados/arvados/tree/master/tools/salt-install directory in the Arvados git repository.
+{% if site.current_version %}
+{% assign branchname = site.current_version | slice: 1, 5 | append: '-dev' %}
+{% else %}
+{% assign branchname = 'master' %}
+{% endif %}
 
-This procedure will install all the main Arvados components to get you up and running in a multi host environment.
+This is a package-based installation method. Start with the @provision.sh@ script which is available by cloning the @{{ branchname }}@ branch from "https://git.arvados.org/arvados.git":https://git.arvados.org/arvados.git .  The @provision.sh@ script and its supporting files can be found in the "arvados/tools/salt-install":https://git.arvados.org/arvados.git/tree/refs/heads/{{ branchname }}:/tools/salt-install directory in the Arvados git repository.
 
-We suggest you to use the @provision.sh@ script to deploy Arvados, which is implemented with the @arvados-formula@ in a Saltstack master-less setup. After setting up a few variables in a config file (next step), you'll be ready to run it and get Arvados deployed.
+This procedure will install all the main Arvados components to get you up and running in a multi-host environment.
+
+The @provision.sh@ script will help you deploy Arvados by preparing your environment to be able to run the installer, then running it. The actual installer is located at "arvados-formula":https://git.arvados.org/arvados-formula.git/tree/refs/heads/{{ branchname }} and will be cloned during the running of the @provision.sh@ script.  The installer is built using "Saltstack":https://saltproject.io/ and @provision.sh@ performs the install using master-less mode.
+
+After setting up a few variables in a config file (next step), you'll be ready to run it and get Arvados deployed.
 
 h3(#create_a_compute_image). Create a compute image
 
@@ -85,7 +93,7 @@ Edit the variables in the <i>local.params</i> file. Pay attention to the <b>*_IN
 
 The <i>multi_host</i> include LetsEncrypt salt code to automatically request and install the certificates for the public-facing hosts (API, Workbench) so it will need the hostnames to be reachable from the Internet. If this cluster will not be the case, please set the variable <i>USE_LETSENCRYPT=no</i>.
 
-## "Further customization of the installation (modifying the salt pillars and states)":#further_customization
+h3(#further_customization). Further customization of the installation (modifying the salt pillars and states)
 
 You will need further customization to suit your environment, which can be done editing the Saltstack pillars and states files. Pay particular attention to the <i>pillars/arvados.sls</i> file, where you will need to provide some information that can be retrieved as output of the terraform run.
 
@@ -105,7 +113,7 @@ When you finished customizing the configuration, you are ready to copy the files
 
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --roles comma,separated,list,of,roles,to,apply
+ssh user@host sudo ./provision.sh --roles comma,separated,list,of,roles,to,apply
 </code></pre>
 </notextile>
 
@@ -124,46 +132,46 @@ The distribution of role as described above can be applied running these command
 #. Database
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --config local.params --roles database
+ssh user@host sudo ./provision.sh --config local.params --roles database
 </code></pre>
 </notextile>
 
 #. API
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --config local.params --roles api,controller,websocket,dispatcher
+ssh user@host sudo ./provision.sh --config local.params --roles api,controller,websocket,dispatcher
 </code></pre>
 </notextile>
 
 #. Keepstore/s
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --config local.params --roles keepstore
+ssh user@host sudo ./provision.sh --config local.params --roles keepstore
 </code></pre>
 </notextile>
 
 #. Workbench
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --config local.params --roles workbench,workbench2
+ssh user@host sudo ./provision.sh --config local.params --roles workbench,workbench2
 </code></pre>
 </notextile>
 
 #. Keepproxy / Keepweb
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --config local.params --roles keepproxy,keepweb
+ssh user@host sudo ./provision.sh --config local.params --roles keepproxy,keepweb
 </code></pre>
 </notextile>
 
-#. Shell
+#. Shell (here we copy the CLI test workflow too)
 <notextile>
-<pre><code>scp -r provision.sh local* user@host:
-ssh user@host sudo provision.sh --config local.params --roles shell
+<pre><code>scp -r provision.sh local* tests user@host:
+ssh user@host sudo ./provision.sh --config local.params --roles shell
 </code></pre>
 </notextile>
 
-h2(#initial_user). Initial user and login 
+h2(#initial_user). Initial user and login
 
 At this point you should be able to log into the Arvados cluster. The initial URL will be:
 
@@ -183,11 +191,11 @@ Assuming you didn't change these values in the @local.params@ file, the initial
 
 h2(#test_install). Test the installed cluster running a simple workflow
 
-The @provision.sh@ script saves a simple example test workflow in the @/tmp/cluster_tests@ directory in the node. If you want to run it, just ssh to the node, change to that directory and run:
+If you followed the instructions above, the @provision.sh@ script saves a simple example test workflow in the @/tmp/cluster_tests@ directory in the @shell@ node. If you want to run it, just ssh to the node, change to that directory and run:
 
 <notextile>
 <pre><code>cd /tmp/cluster_tests
-./run-test.sh
+sudo /run-test.sh
 </code></pre>
 </notextile>