Salt installer fixes:
[arvados.git] / doc / install / salt-multi-host.html.textile.liquid
index 2e4f49b0196c7f8d140e74438899fff76cade2f6..83a60c9fee365a67b20c5c3b41c42a6e0857f7c2 100644 (file)
@@ -11,7 +11,6 @@ SPDX-License-Identifier: CC-BY-SA-3.0
 
 # "Introduction":#introduction
 # "Hosts preparation":#hosts_preparation
-## "Hosts setup using terraform (experimental)":#hosts_setup_using_terraform
 ## "Create a compute image":#create_a_compute_image
 # "Multi host install using the provision.sh script":#multi_host
 # "Choose the desired configuration":#choose_configuration
@@ -65,21 +64,9 @@ Note that these hosts can be virtual machines in your infrastructure and they do
 
 Again, if your infrastructure differs from the setup proposed above (ie, using RDS or an existing DB server), remember that you will need to edit the configuration files for the scripts so they work with your infrastructure.
 
-
-h3(#hosts_setup_using_terraform). Hosts setup using terraform (AWS, experimental)
-
-We added a few "terraform":https://terraform.io/ scripts (https://github.com/arvados/arvados/tree/main/tools/terraform) to let you create these instances easier in an AWS account. Check "the Arvados terraform documentation":/doc/install/terraform.html for more details.
-
-
-
-
 h2(#multi_host). Multi host install using the provision.sh script
 
-{% if site.current_version %}
-{% assign branchname = site.current_version | slice: 1, 5 | append: '-dev' %}
-{% else %}
-{% assign branchname = 'main' %}
-{% endif %}
+{% include 'branchname' %}
 
 This is a package-based installation method. Start with the @provision.sh@ script which is available by cloning the @{{ branchname }}@ branch from "https://git.arvados.org/arvados.git":https://git.arvados.org/arvados.git . The @provision.sh@ script and its supporting files can be found in the "arvados/tools/salt-install":https://git.arvados.org/arvados.git/tree/refs/heads/{{ branchname }}:/tools/salt-install directory in the Arvados git repository.
 
@@ -110,11 +97,13 @@ cp -r config_examples/multi_host/aws local_config_dir
 
 Edit the variables in the <i>local.params</i> file. Pay attention to the <b>*_INT_IP, *_TOKEN</b> and <b>*KEY</b> variables. Those variables will be used to do a search and replace on the <i>pillars/*</i> in place of any matching __VARIABLE__.
 
-The <i>multi_host</i> include LetsEncrypt salt code to automatically request and install the certificates for the public-facing hosts (API/controller, Workbench, Keepproxy/Keepweb) using AWS' Route53. If you will provide custom certificates, please set the variable <i>USE_LETSENCRYPT=no</i>.
+The <i>multi_host</i> example includes Let's Encrypt salt code to automatically request and install the certificates for the public-facing hosts (API/controller, Workbench, Keepproxy/Keepweb) using AWS' Route53.
+
+{% include 'install_custom_certificates' %}
 
 h3(#further_customization). Further customization of the installation (modifying the salt pillars and states)
 
-You will need further customization to suit your environment, which can be done editing the Saltstack pillars and states files. Pay particular attention to the <i>pillars/arvados.sls</i> file, where you will need to provide some information that can be retrieved as output of the terraform run.
+You will need further customization to suit your environment, which can be done editing the Saltstack pillars and states files. Pay particular attention to the <i>pillars/arvados.sls</i> file, where you will need to provide some information that describes your environment.
 
 Any extra <i>state</i> file you add under <i>local_config_dir/states</i> will be added to the salt run and applied to the hosts.
 
@@ -122,9 +111,9 @@ h2(#installation_order). Installation order
 
 A few Arvados nodes need to be installed in certain order. The required order is
 
-#. Database
-#. API server
-#. The other nodes can be installed in any order after the two above
+* Database
+* API server
+* The other nodes can be installed in any order after the two above
 
 h2(#run_provision_script). Run the provision.sh script
 
@@ -148,42 +137,42 @@ arvados: Failed:      0
 
 The distribution of role as described above can be applied running these commands:
 
-#. Database
+h4. Database
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
 ssh user@host sudo ./provision.sh --config local.params --roles database
 </code></pre>
 </notextile>
 
-#. API
+h4. API
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
 ssh user@host sudo ./provision.sh --config local.params --roles api,controller,websocket,dispatcher
 </code></pre>
 </notextile>
 
-#. Keepstore/s
+h4. Keepstore(s)
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
 ssh user@host sudo ./provision.sh --config local.params --roles keepstore
 </code></pre>
 </notextile>
 
-#. Workbench
+h4. Workbench
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
 ssh user@host sudo ./provision.sh --config local.params --roles workbench,workbench2,webshell
 </code></pre>
 </notextile>
 
-#. Keepproxy / Keepweb
+h4. Keepproxy / Keepweb
 <notextile>
 <pre><code>scp -r provision.sh local* user@host:
 ssh user@host sudo ./provision.sh --config local.params --roles keepproxy,keepweb
 </code></pre>
 </notextile>
 
-#. Shell (here we copy the CLI test workflow too)
+h4. Shell (here we copy the CLI test workflow too)
 <notextile>
 <pre><code>scp -r provision.sh local* tests user@host:
 ssh user@host sudo ./provision.sh --config local.params --roles shell