Merge branch '19215-installer' refs #19215
[arvados.git] / doc / install / salt-multi-host.html.textile.liquid
index 88501c1003f1a0d138de9638f1f1b24e465e5e36..ae76c5b58deab73fbf30099e9958824dadcb55ef 100644 (file)
@@ -65,10 +65,6 @@ In the default configuration these are:
 
 For more information, see "DNS entries and TLS certificates":install-manual-prerequisites.html#dnstls.
 
-h3. Install Terraform and AWS CLI (AWS specific)
-
-If you are going to use Terraform to set up the infrastructure on AWS, you will need to install the "Terraform CLI":https://developer.hashicorp.com/terraform/tutorials/aws-get-started/install-cli tool installed on your computer, as well as the "AWS CLI":https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html tool.
-
 h2(#download). Download the installer
 
 {% assign local_params_src = 'multiple_hosts' %}
@@ -120,11 +116,12 @@ Apply complete! Resources: 16 added, 0 changed, 0 destroyed.
 Outputs:
 
 arvados_sg_id = "sg-02f999a99973999d7"
+arvados_subnet_id = "subnet-01234567abc"
 cluster_name = "xarv1"
+compute_subnet_id = "subnet-abcdef12345"
 deploy_user = "admin"
 domain_name = "example.com"
 letsencrypt_iam_access_key_id = "AKAA43MAAAWAKAADAASD"
-letsencrypt_iam_secret_access_key = <sensitive>
 private_ip = {
   "controller" = "10.1.1.1"
   "keep0" = "10.1.1.3"
@@ -141,15 +138,16 @@ public_ip = {
   "shell" = "44.208.155.240"
   "workbench" = "52.204.134.136"
 }
+region_name = "us-east-1"
 route53_dns_ns = tolist([
   "ns-1119.awsdns-11.org",
   "ns-1812.awsdns-34.co.uk",
   "ns-437.awsdns-54.com",
   "ns-809.awsdns-37.net",
 ])
-subnet_id = "subnet-072a999f939989710"
 vpc_cidr = "10.1.0.0/16"
 vpc_id = "vpc-0999994998399923a"
+letsencrypt_iam_secret_access_key = "XXXXXSECRETACCESSKEYXXXX"
 </code></pre>
 
 
@@ -175,18 +173,11 @@ If the parent domain is controlled by some other service, follow the guide for t
 
 h4. Other important output parameters
 
-* Take note of @letsencrypt_iam_access_key_id@ and @letsencrypt_iam_secret_access_key@ for setting up @LE_AWS_*@ variables in @local.params@.
-
-You'll see that the @letsencrypt_iam_secret_access_key@ data is obscured; to retrieve it you'll need to run the following command inside the @services/@ subdirectory:
-
-<pre><code>$ terraform output letsencrypt_iam_secret_access_key
-"FQ3+3lxxOxxUu+Nw+qx3xixxxExxxV9jFC+XxxRl"</code></pre>
-
 The certificates will be requested from Let's Encrypt when you run the installer.
 
 * @vpc_cidr@ will be used to set @CLUSTER_INT_CIDR@
 
-* You'll also need @subnet_id@ and @arvados_sg_id@ to set @DriverParameters.SubnetID@ and @DriverParameters.SecurityGroupIDs@ in @local_config_dir/pillars/arvados.sls@ and when you "create a compute image":#create_a_compute_image.
+* You'll also need @compute_subnet_id@ and @arvados_sg_id@ to set @DriverParameters.SubnetID@ and @DriverParameters.SecurityGroupIDs@ in @local_config_dir/pillars/arvados.sls@ and when you "create a compute image":#create_a_compute_image.
 
 You can now proceed to "edit local.params":#localparams.
 
@@ -338,15 +329,21 @@ If you are installing on a different cloud provider or on HPC, other changes may
 
 Any extra Salt "state" files you add under @local_config_dir/states@ will be added to the Salt run and applied to the hosts.
 
-h2(#create_a_compute_image). Create a compute image
+h2(#create_a_compute_image). Configure compute nodes
 
 {% include 'branchname' %}
 
-On cloud installations, containers are dispatched in Docker daemons running in the _compute instances_, which need some additional setup.  If you will use a HPC scheduler such as SLURM you can skip this section.
+If you will use fixed compute nodes with an HPC scheduler such as SLURM or LSF, you will need to "Set up your compute nodes with Docker":{{site.baseurl}}/install/crunch2/install-compute-node-docker.html or "Set up your compute nodes with Singularity":{{site.baseurl}}/install/crunch2/install-compute-node-singularity.html.
+
+On cloud installations, containers are dispatched in Docker daemons running in the _compute instances_, which need some additional setup.
+
+h3. Build the compute image
+
+Follow "the instructions to build a cloud compute node image":{{site.baseurl}}/install/crunch2-cloud/install-compute-node.html using the compute image builder script found in @arvados/tools/compute-images@ in your Arvados clone from "step 3":#download.
 
-*Start by following "the instructions to build a cloud compute node image":{{site.baseurl}}/install/crunch2-cloud/install-compute-node.html using the "compute image builder script":https://github.com/arvados/arvados/tree/{{ branchname }}/tools/compute-images* .
+h3. Configure the compute image
 
-Once you have that image created, Open @local_config_dir/pillars/arvados.sls@ and edit as follows (AWS specific settings described here, other cloud providers will have similar settings in their respective configuration section):
+Once the image has been created, open @local_config_dir/pillars/arvados.sls@ and edit as follows (AWS specific settings described here, other cloud providers will have similar settings in their respective configuration section):
 
 # In the @arvados.cluster.Containers.CloudVMs@ section:
 ## Set @ImageID@ to the AMI produced by Packer
@@ -448,7 +445,7 @@ If you *did* configure a different authentication provider, the first user to lo
 
 h2(#post_install). After the installation
 
-As part of the operation of @installer.sh@, it automatically creates a @git@ repository with your configuration templates.  You should retain this repository but be aware that it contains sensitive information (passwords and tokens used by the Arvados services).
+As part of the operation of @installer.sh@, it automatically creates a @git@ repository with your configuration templates.  You should retain this repository but *be aware that it contains sensitive information* (passwords and tokens used by the Arvados services as well as cloud credentials if you used Terraform to create the infrastructure).
 
 As described in "Iterating on config changes":#iterating you may use @installer.sh deploy@ to re-run the Salt to deploy configuration changes and upgrades.  However, be aware that the configuration templates created for you by @installer.sh@ are a snapshot which are not automatically kept up to date.