15572: Many small doc tweaks as part of review.
authorWard Vandewege <ward@jhvc.com>
Fri, 20 Dec 2019 16:17:36 +0000 (11:17 -0500)
committerWard Vandewege <ward@jhvc.com>
Fri, 20 Dec 2019 16:17:36 +0000 (11:17 -0500)
Arvados-DCO-1.1-Signed-off-by: Ward Vandewege <ward@jhvc.com>

31 files changed:
doc/_includes/_install_redhat_key.liquid
doc/admin/config-migration.html.textile.liquid
doc/admin/management-token.html.textile.liquid
doc/admin/spot-instances.html.textile.liquid
doc/admin/upgrading.html.textile.liquid
doc/install/config.html.textile.liquid
doc/install/configure-azure-blob-storage.html.textile.liquid
doc/install/configure-fs-storage.html.textile.liquid
doc/install/configure-s3-object-storage.html.textile.liquid
doc/install/copy_pipeline_from_curoverse.html.textile.liquid
doc/install/crunch2-slurm/install-dispatch.html.textile.liquid
doc/install/crunch2-slurm/install-slurm.html.textile.liquid
doc/install/crunch2-slurm/install-test.html.textile.liquid
doc/install/google-auth.html.textile.liquid
doc/install/install-api-server.html.textile.liquid
doc/install/install-arv-git-httpd.html.textile.liquid
doc/install/install-dispatch-cloud.html.textile.liquid
doc/install/install-keep-balance.html.textile.liquid
doc/install/install-keep-web.html.textile.liquid
doc/install/install-keepproxy.html.textile.liquid
doc/install/install-keepstore.html.textile.liquid
doc/install/install-manual-prerequisites.html.textile.liquid
doc/install/install-sso.html.textile.liquid
doc/install/install-workbench-app.html.textile.liquid
doc/install/install-workbench2-app.html.textile.liquid
doc/install/install-ws.html.textile.liquid
doc/install/nginx.html.textile.liquid
doc/install/packages.html.textile.liquid
doc/user/topics/arv-copy.html.textile.liquid
doc/user/tutorials/tutorial-keep-mount-os-x.html.textile.liquid
doc/user/tutorials/tutorial-keep-mount-windows.html.textile.liquid

index 1a621dcb3a32d2b3c59c7ac08d2d36f1c5c86b1e..c9430515f16619ca1aeda22f387573d113aef6e4 100644 (file)
@@ -4,11 +4,13 @@ Copyright (C) The Arvados Authors. All rights reserved.
 SPDX-License-Identifier: CC-BY-SA-3.0
 {% endcomment %}
 
-The Curoverse signing key fingerprint is
+The Arvados signing key fingerprint is
 
 <notextile>
-<pre><code>pub  2048R/1078ECD7 2010-11-15 Curoverse, Inc Automatic Signing Key <sysadmin@curoverse.com>
-      Key fingerprint = B2DA 2991 656E B4A5 0314  CA2B 5716 5911 1078 ECD7
-sub  2048R/5A8C5A93 2010-11-15
+<pre><code>pub   rsa2048 2010-11-15 [SC]
+      B2DA 2991 656E B4A5 0314  CA2B 5716 5911 1078 ECD7
+uid           [ unknown] Arvados Automatic Signing Key <sysadmin@arvados.org>
+uid           [ unknown] Curoverse, Inc Automatic Signing Key <sysadmin@curoverse.com>
+sub   rsa2048 2010-11-15 [E]
 </code></pre>
 </notextile>
index 87f674456b2244a27b56fb7e0900c0632df2ddea..c1b1b3a7bdced945211b3f273d5a2e5a8d1d79e7 100644 (file)
@@ -10,7 +10,9 @@ Copyright (C) The Arvados Authors. All rights reserved.
 SPDX-License-Identifier: CC-BY-SA-3.0
 {% endcomment %}
 
+{% include 'notebox_begin_warning' %}
 _New installations of Arvados 1.5+ can skip this section_
+{% include 'notebox_end' %}
 
 Arvados 1.5 migrates to a centralized configuration file for all components.  The centralized Arvados configuration is @/etc/arvados/config.yml@.  Components that support the new centralized configuration are listed below.  During the migration period, legacy configuration files are still loaded and take precedence over the centralized configuration file.
 
@@ -58,7 +60,7 @@ This command will also report if no migrations are required.
 
 h2. keepstore, keep-web, crunch-dispatch-slurm, arvados-ws, keepproxy, arv-git-httpd, keep-balance
 
-The legacy config for each component (loaded from @/etc/arvados/component/component.yml@ or a different location specified via -legacy-component-config command line argument) takes precedence over the centralized config. After you migrate everything from the legacy config to the centralized config, you should delete @/etc/arvados/component/component.yml@ and/or stop using the corresponding -legacy-component-config argument.
+The legacy config for each component (loaded from @/etc/arvados/component/component.yml@ or a different location specified via the -legacy-component-config command line argument) takes precedence over the centralized config. After you migrate everything from the legacy config to the centralized config, you should delete @/etc/arvados/component/component.yml@ and/or stop using the corresponding -legacy-component-config argument.
 
 To migrate a component configuration, do this on each node that runs an Arvados service:
 
@@ -71,7 +73,7 @@ To migrate a component configuration, do this on each node that runs an Arvados
 
 After migrating and removing all legacy config files, make sure the @/etc/arvados/config.yml@ file is identical across all system nodes -- API server, keepstore, etc. -- and restart all services to make sure they are using the latest configuration.
 
-h2. Node manager
+h2. Cloud installations only: node manager
 
 Node manager is deprecated and replaced by @arvados-dispatch-cloud@.  No automated config migration is available.  Follow the instructions to "install the cloud dispatcher":../install/install-dispatch-cloud.html
 
index cf3e273ceba13f9b54c5be7f1bfc5aa5c1a921c7..881227b3fa9a84ce084f107de771aa862c1949c5 100644 (file)
@@ -51,7 +51,7 @@ Set @ManagementToken@ in the appropriate section of @/etc/arvados/config.yml@.
 
 <notextile>
 <pre><code>Clusters:
-  <span class="userinput">uuid_prefix</span>:
+  <span class="userinput">ClusterID</span>:
     # Token to be included in all healthcheck requests. Disabled by default.
     # Server expects request header of the format "Authorization: Bearer xxx"
     ManagementToken: xxx
index 4bba0e89354c58495bf9721279e501f7b6eccc12..7195a37b4842812589d68e8cd088884b47c2d190 100644 (file)
@@ -20,7 +20,7 @@ To use preemptible instances, set @UsePreemptibleInstances: true@ and add entrie
 
 <pre>
 Clusters:
-  uuid_prefix:
+  ClusterID: 
     Containers:
       UsePreemptibleInstances: true
     InstanceTypes:
@@ -42,7 +42,7 @@ Clusters:
 
 When @UsePreemptibleInstances@ is enabled, child containers (workflow steps) will automatically be made preemptible.  Note that because preempting the workflow runner would cancel the entire workflow, the workflow runner runs in a reserved (non-preemptible) instance.
 
-If you are using "crunch-dispatch-cloud":{{site.baseurl}}/install/install-dispatch-cloud.html no additional configuration is required.
+If you are using "arvados-dispatch-cloud":{{site.baseurl}}/install/install-dispatch-cloud.html no additional configuration is required.
 
 If you are using the legacy Nodemanager, "see below":#nodemanager .
 
index 4aa1d2d7d62ac90856b5ebf7b5902dc55a406aa8..bc53ffa43949e5fc8156bccf4bf9c5acd32582e7 100644 (file)
@@ -36,7 +36,7 @@ h4. Migrating to centralized config.yml
 
 See "Migrating Configuration":config-migration.html for notes on migrating legacy per-component configuration files to the new centralized @/etc/arvados/config.yml@.  To ensure a smooth transition, the per-component config files continue to be read, and take precedence over the centralized configuration.
 
-h4. Node manager replaced by arvados-dispatch-cloud
+h4. Cloud installations only: node manager replaced by arvados-dispatch-cloud
 
 Node manager is deprecated and replaced by @arvados-dispatch-cloud@.  No automated config migration is available.  Follow the instructions to "install the cloud dispatcher":../install/install-dispatch-cloud.html
 
@@ -557,8 +557,8 @@ h4. Recommended configuration change for keep-web (2015-11-11)
 
 Commit "1e2ace5":https://dev.arvados.org/projects/arvados/repository/revisions/1e2ace5 changes recommended config for keep-web (see "#5824":https://dev.arvados.org/issues/5824)
 
-* proxy/dns/ssl config should be updated to route "https://download.uuid_prefix.arvadosapi.com/" requests to keep-web (alongside the existing "collections" routing)
-* keep-web command line adds @-attachment-only-host download.uuid_prefix.arvadosapi.com@
+* proxy/dns/ssl config should be updated to route "https://download.ClusterID.example.com/" requests to keep-web (alongside the existing "collections" routing)
+* keep-web command line adds @-attachment-only-host download.ClusterID.example.com@
 * Workbench config adds @keep_web_download_url@
 * More info on the (still beta/non-TOC-linked) "keep-web doc page":http://doc.arvados.org/install/install-keep-web.html
 
index 6993bbad542b23bfde4f8fa281f8e9c01affe9cd..b768147df857dcae4bf0859c117930842392a83b 100644 (file)
@@ -15,7 +15,7 @@ The configuration file is normally found at @/etc/arvados/config.yml@ and will b
 
 h3. Syntax
 
-The configuration file is in "YAML":https://yaml.org/ format.  This is a block syntax where indentation is significant (similar to Python).  By convention we use two space indent.  The first line of the file is always "Clusters:", underneath it at the first indent level is the Cluster ID.  All the actual cluster configuration come under the Cluster ID.  This means all configuration parameters are indented by at least two levels (four spaces).  Comments start with @#@ .
+The configuration file is in "YAML":https://yaml.org/ format.  This is a block syntax where indentation is significant (similar to Python).  By convention we use two space indent.  The first line of the file is always "Clusters:", underneath it at the first indent level is the Cluster ID.  All the actual cluster configuration follows under the Cluster ID.  This means all configuration parameters are indented by at least two levels (four spaces).  Comments start with @#@ .
 
 We recommend a YAML-syntax plugin for your favorite text editor, such as @yaml-mode@ (Emacs) or @yaml-vim@.
 
index 26d5d98401a8fd084d6c1d143e8af8af95421cdd..8c5098abe30782e4d354593ecbb4bcf0953f415f 100644 (file)
@@ -67,8 +67,8 @@ Volumes are configured in the @Volumes@ section of the cluster configuration fil
           # If the AccessViaHosts section is empty or omitted, all
           # keepstore servers will have read/write access to the
           # volume.
-          "http://<span class="userinput">keep0.uuid_prefix.example.com</span>:25107/": {}
-          "http://<span class="userinput">keep1.uuid_prefix.example.com</span>:25107/": {ReadOnly: true}
+          "http://<span class="userinput">keep0.ClusterID.example.com</span>:25107/": {}
+          "http://<span class="userinput">keep1.ClusterID.example.com</span>:25107/": {ReadOnly: true}
 
         Driver: <span class="userinput">Azure</span>
         DriverParameters:
index 608d3e3bf28ef08abb2a53036ed62288936900e4..ebf964a796ceaf06d18ced756999808af08af29e 100644 (file)
@@ -44,7 +44,7 @@ Note that each volume entry has an @AccessViaHosts@ section indicating which Kee
 
       <span class="userinput">ClusterID</span>-nyw5e-<span class="userinput">000000000000001</span>:
         AccessViaHosts:
-          "http://keep1.<span class="userinput">ClusterID</span>.example.com:25107": {}
+          "http://<span class="userinput">keep1.ClusterID.example.com</span>:25107": {}
         Driver: <span class="userinput">Directory</span>
         DriverParameters:
           Root: <span class="userinput">/mnt/local-disk</span>
index aab906b1addfb1012c3022538cd8f9994819707b..9708ea5cd10b5f8bc020cb69b02cdb9c8bb1f56e 100644 (file)
@@ -25,8 +25,8 @@ Volumes are configured in the @Volumes@ section of the cluster configuration fil
           # If the AccessViaHosts section is empty or omitted, all
           # keepstore servers will have read/write access to the
           # volume.
-          "http://<span class="userinput">keep0.uuid_prefix.example.com</span>:25107/": {}
-          "http://<span class="userinput">keep1.uuid_prefix.example.com</span>:25107/": {ReadOnly: true}
+          "http://<span class="userinput">keep0.ClusterID.example.com</span>:25107/": {}
+          "http://<span class="userinput">keep1.ClusterID.example.com</span>:25107/": {ReadOnly: true}
 
         Driver: <span class="userinput">S3</span>
         DriverParameters:
index fa497c93de484e1a5ab094d2914cf802ffb6c6bd..2c2b3c466e8d14136d9b6a0ea159d02e3c6400f9 100644 (file)
@@ -42,7 +42,7 @@ Configure the source and destination clusters as described in the "*Using arv-co
 </code></pre>
 </notextile>
 
-You can now copy the pipeline template from *qr1hi* to *your cluster*. Replace *dst_cluster* with the *uuid_prefix* of your cluster.
+You can now copy the pipeline template from *qr1hi* to *your cluster*. Replace *dst_cluster* with the *ClusterID* of your cluster.
 
 <notextile>
 <pre><code>~$ <span class="userinput"> arv-copy --no-recursive --src qr1hi --dst dst_cluster qr1hi-p5p6p-9pkaxt6qjnkxhhu</span>
@@ -55,7 +55,7 @@ h4(#using-your-token). *Configuring source and destination setup files using per
 
 If you already have an account in the Arvados Playground, you can follow the instructions in the "*Using arv-copy*":http://doc.arvados.org/user/topics/arv-copy.html user guide to get your *Current token* for source and destination clusters, and use them to create the source *qr1hi.conf* and dst_cluster.conf configuration files.
 
-You can now copy the pipeline template from *qr1hi* to *your cluster* with or without recursion. Replace *dst_cluster* with the *uuid_prefix* of your cluster.
+You can now copy the pipeline template from *qr1hi* to *your cluster* with or without recursion. Replace *dst_cluster* with the *ClusterID* of your cluster.
 
 *Non-recursive copy:*
 <notextile>
index faf1e7318b7cd5231487adfb601d99509fca5510..300871763879472a1f57310584855bae2986bdbd 100644 (file)
@@ -10,6 +10,10 @@ Copyright (C) The Arvados Authors. All rights reserved.
 SPDX-License-Identifier: CC-BY-SA-3.0
 {% endcomment %}
 
+{% include 'notebox_begin_warning' %}
+crunch-dispatch-slurm is only relevant for on premise clusters that will spool jobs to Slurm. Skip this section if you are installing a cloud cluster.
+{% include 'notebox_end' %}
+
 # "Introduction":#introduction
 # "Update config.yml":#update-config
 # "Install crunch-dispatch-slurm":#install-packages
@@ -18,13 +22,13 @@ SPDX-License-Identifier: CC-BY-SA-3.0
 
 h2(#introduction). Introduction
 
-This assumes you already have a SLURM cluster, and have "set up all of your compute nodes":install-compute-node.html .  For information on installing SLURM, see https://slurm.schedmd.com/quickstart_admin.html
+This assumes you already have a SLURM cluster, and have "set up all of your compute nodes":install-compute-node.html .  For information on installing SLURM, see "this install guide":https://slurm.schedmd.com/quickstart_admin.html
 
 The Arvados SLURM dispatcher can run on any node that can submit requests to both the Arvados API server and the SLURM controller (via @sbatch@).  It is not resource-intensive, so you can run it on the API server node.
 
 h2(#update-config). Update config.yml (optional)
 
-Crunch-dispatch-slurm reads the common configuration file at @/etc/arvados/config.yml@.
+Crunch-dispatch-slurm reads the common configuration file at @config.yml@.
 
 The following configuration parameters are optional.
 
index 547d24e73cbde9539879f9cdbec943a57d5f603d..7f4488fb36d3a49d7dfa2ea22449976221c5f533 100644 (file)
@@ -34,8 +34,8 @@ On Red Hat-based systems:
 Now we need to give SLURM a configuration file.  On Debian-based systems, this is installed at @/etc/slurm-llnl/slurm.conf@.  On Red Hat-based systems, this is installed at @/etc/slurm/slurm.conf@.  Here's an example @slurm.conf@:
 
 <notextile>
-<pre>
-ControlMachine=uuid_prefix.your.domain
+<pre><code>
+ControlMachine=<span class="userinput">ClusterID.example.com</class>
 SlurmctldPort=6817
 SlurmdPort=6818
 AuthType=auth/munge
@@ -79,7 +79,7 @@ PartitionName=DEFAULT MaxTime=INFINITE State=UP
 
 NodeName=compute[0-255]
 PartitionName=compute Nodes=compute[0-255] Default=YES Shared=YES
-</pre>
+</code></pre>
 </notextile>
 
 h3. SLURM configuration essentials
@@ -97,11 +97,11 @@ Whenever you change this file, you will need to update the copy _on every comput
 Each hostname in @slurm.conf@ must also resolve correctly on all SLURM worker nodes as well as the controller itself. Furthermore, the hostnames used in the configuration file must match the hostnames reported by @hostname@ or @hostname -s@ on the nodes themselves. This applies to the ControlMachine as well as the worker nodes.
 
 For example:
-* In @slurm.conf@ on control and worker nodes: @ControlMachine=uuid_prefix.your.domain@
+* In @slurm.conf@ on control and worker nodes: @ControlMachine=ClusterID.example.com@
 * In @slurm.conf@ on control and worker nodes: @NodeName=compute[0-255]@
-* In @/etc/resolv.conf@ on control and worker nodes: @search uuid_prefix.your.domain@
-* On the control node: @hostname@ reports @uuid_prefix.your.domain@
-* On worker node 123: @hostname@ reports @compute123.uuid_prefix.your.domain@
+* In @/etc/resolv.conf@ on control and worker nodes: @search ClusterID.example.com@
+* On the control node: @hostname@ reports @ClusterID.example.com@
+* On worker node 123: @hostname@ reports @compute123.ClusterID.example.com@
 
 h3. Automatic hostname assignment
 
index ce5aceee685abc4ce25c428538a91fcfa88514b3..6d4ca930590e23606855b4f37c16027ae9d5f579 100644 (file)
@@ -9,6 +9,10 @@ Copyright (C) The Arvados Authors. All rights reserved.
 SPDX-License-Identifier: CC-BY-SA-3.0
 {% endcomment %}
 
+{% include 'notebox_begin_warning' %}
+crunch-dispatch-slurm is only relevant for on premise clusters that will spool jobs to Slurm. Skip this section if you are installing a cloud cluster.
+{% include 'notebox_end' %}
+
 h2. Test compute node setup
 
 You should now be able to submit SLURM jobs that run in Docker containers.  On the node where you're running the dispatcher, you can test this by running:
index 14e8cb1f5d4e7da24e5d62938418f7050e23547d..fad10ff358e1717d25aec374fc5d87438070bce8 100644 (file)
@@ -17,11 +17,11 @@ In order to use Google for authentication, you must use the <a href="https://con
 # Navigate back to the main "APIs & Services" page
 # On the sidebar, click on *OAuth consent screen*
 ## On consent screen settings, enter your identifying details
-## Under *Authorized domains* add @yourdomain.com@
+## Under *Authorized domains* add @example.com@
 ## Click on *Save*.
 # On the sidebar, click on *Credentials*; then click on *Create credentials*&rarr;*OAuth Client ID*
 # Under *Application type* select *Web application*.
-# You must set the authorization origins.  Edit @auth.your.domain@ to the appropriate hostname that you will use to access the SSO service:
-## JavaScript origin should be @https://ClusterID.yourdomain.com/@ (using Arvados-controller based login) or @https://auth.yourdomain.com/@ (for the SSO server)
-## Redirect URI should be @https://ClusterID.yourdomain.com/login@ (using Arvados-controller based login) or @https://auth.yourdomain.com/users/auth/google_oauth2/callback@ (for the SSO server)
+# You must set the authorization origins.  Edit @auth.example.com@ to the appropriate hostname that you will use to access the SSO service:
+## JavaScript origin should be @https://ClusterID.example.com/@ (using Arvados-controller based login) or @https://auth.example.com/@ (for the SSO server)
+## Redirect URI should be @https://ClusterID.example.com/login@ (using Arvados-controller based login) or @https://auth.example.com/users/auth/google_oauth2/callback@ (for the SSO server)
 # Copy the values of *Client ID* and *Client secret* from the Google Developers Console and add them to the appropriate configuration.
index dc4023461eef1d81251f2d6eb848584736e4635b..e64c3826694f257b5efe688059a39bdf72966021 100644 (file)
@@ -89,7 +89,7 @@ h3. Services
 <notextile>
 <pre><code>    Services:
       Controller:
-        ExternalURL: <span class="userinput">"https://xxxxx.example.com"</span>
+        ExternalURL: <span class="userinput">"https://ClusterID.example.com"</span>
         InternalURLs:
           <span class="userinput">"http://localhost:8003": {}</span>
       RailsAPI:
@@ -99,13 +99,13 @@ h3. Services
 </code></pre>
 </notextile>
 
-Replace @xxxxx.example.com@ with the hostname that you previously selected for the API server.
+Replace @ClusterID.example.com@ with the hostname that you previously selected for the API server.
 
 The @Services@ section of the configuration helps Arvados components contact one another (service discovery).  Each service has one or more @InternalURLs@ and an @ExternalURL@.  The @InternalURLs@ describe where the service runs, and how the Nginx reverse proxy will connect to it.  The @ExternalURL@ is how external clients contact the service.
 
 h2(#update-nginx). Update nginx configuration
 
-Use a text editor to create a new file @/etc/nginx/conf.d/arvados-api-and-controller.conf@ with the following configuration.  Options that need attention are marked with "TODO".
+Use a text editor to create a new file @/etc/nginx/conf.d/arvados-api-and-controller.conf@ with the following configuration.  Options that need attention are marked in <span class="userinput">red</span>.
 
 <notextile>
 <pre><code>proxy_http_version 1.1;
@@ -120,11 +120,11 @@ Use a text editor to create a new file @/etc/nginx/conf.d/arvados-api-and-contro
 # "available keep services" request with either a list of internal keep
 # servers (0) or with the keepproxy (1).
 #
-# TODO: Following the example here, update the 10.20.30.0/24 netmask
-# to match your private subnet.
-# TODO: Update 1.2.3.4 and add lines as necessary with the public IP
-# address of all servers that can also access the private network to
-# ensure they are not considered 'external'.
+# <span class="userinput">Following the example here, update the 10.20.30.0/24 netmask</span>
+# <span class="userinput">to match your private subnet.</span>
+# <span class="userinput">Update 1.2.3.4 and add lines as necessary with the public IP</span>
+# <span class="userinput">address of all servers that can also access the private network to</span>
+# <span class="userinput">ensure they are not considered 'external'.</span>
 
 geo $external_client {
   default        1;
@@ -146,8 +146,8 @@ server {
   server_name  <span class="userinput">xxxxx.example.com</span>;
 
   ssl on;
-  ssl_certificate     <span class="userinput">/TODO/YOUR/PATH/TO/cert.pem</span>;
-  ssl_certificate_key <span class="userinput">/TODO/YOUR/PATH/TO/cert.key</span>;
+  ssl_certificate     <span class="userinput">/YOUR/PATH/TO/cert.pem</span>;
+  ssl_certificate_key <span class="userinput">/YOUR/PATH/TO/cert.key</span>;
 
   # Refer to the comment about this setting in the passenger (arvados
   # api server) section of your Nginx configuration.
@@ -179,8 +179,8 @@ server {
 
   passenger_enabled on;
 
-  # TODO: If you are using RVM, uncomment the line below.
-  # If you're using system ruby, leave it commented out.
+  # <span class="userinput">If you are using RVM, uncomment the line below.</span>
+  # <span class="userinput">If you're using system ruby, leave it commented out.</span>
   #passenger_ruby /usr/local/rvm/wrappers/default/ruby;
 
   # This value effectively limits the size of API objects users can
@@ -205,21 +205,19 @@ h2(#confirm-working). Confirm working installation
 
 Confirm working controller:
 
-<pre>
-$ curl https://ClusterID.example.com/arvados/v1/config
-</pre>
+<notextile><pre><code>$ curl https://<span class="userinput">ClusterID.example.com</span>/arvados/v1/config
+</code></pre></notextile>
 
 Confirm working Rails API server:
 
-<pre>
-$ curl https://ClusterID.example.com/discovery/v1/apis/arvados/v1/rest
-</pre>
+<notextile><pre><code>$ curl https://<span class="userinput">ClusterID.example.com</span>/discovery/v1/apis/arvados/v1/rest
+</code></pre></notextile>
 
 Confirm that you can use the system root token to act as the system root user:
 
-<pre>
-$ curl -H "Authorization: Bearer $system_root_token" https://xxxxx.example.com/arvados/v1/users/current
-</pre>
+<notextile><pre><code>
+$ curl -H "Authorization: Bearer $system_root_token" https://<span class="userinput">ClusterID.example.com</span>/arvados/v1/users/current
+</code></pre></notextile>
 
 h3. Troubleshooting
 
index 414678b52433b69a9112ada3646a37398f267f27..d501f46b7a02bed09d4d3908716ed7cc442af78f 100644 (file)
@@ -198,7 +198,7 @@ Create @/etc/cron.d/arvados-git-sync@ with the following content:
 
 h2(#update-config). Update config.yml
 
-Edit the cluster config at @/etc/arvados/config.yml@ .
+Edit the cluster config at @config.yml@ .
 
 <notextile>
 <pre><code>    Services:
@@ -217,7 +217,7 @@ Edit the cluster config at @/etc/arvados/config.yml@ .
 
 h2(#update-nginx). Update nginx configuration
 
-Use a text editor to create a new file @/etc/nginx/conf.d/arvados-git.conf@ with the following configuration.  Options that need attention are marked with "TODO".
+Use a text editor to create a new file @/etc/nginx/conf.d/arvados-git.conf@ with the following configuration.  Options that need attention are marked in <span class="userinput">red</span>.
 
 <notextile>
 <pre><code>upstream arvados-git-httpd {
@@ -230,8 +230,8 @@ server {
   proxy_read_timeout      300s;
 
   ssl on;
-  ssl_certificate         <span class="userinput">/TODO/YOUR/PATH/TO/cert.pem</span>;
-  ssl_certificate_key     <span class="userinput">/TODO/YOUR/PATH/TO/cert.key</span>;
+  ssl_certificate         <span class="userinput">/YOUR/PATH/TO/cert.pem</span>;
+  ssl_certificate_key     <span class="userinput">/YOUR/PATH/TO/cert.key</span>;
 
   # The server needs to accept potentially large refpacks from push clients.
   client_max_body_size 128m;
index 5709e5aaa5ad5578583ffdf9ab98c02092019d84..c4df633a3da9940c38c440cdafb39a995d075561 100644 (file)
@@ -9,6 +9,10 @@ Copyright (C) The Arvados Authors. All rights reserved.
 SPDX-License-Identifier: CC-BY-SA-3.0
 {% endcomment %}
 
+{% include 'notebox_begin_warning' %}
+arvados-dispatch-cloud is only relevant for cloud installations. Skip this section if you are installing a on premise cluster that will spool jobs to Slurm.
+{% include 'notebox_end' %}
+
 # "Introduction":#introduction
 # "Create compute node VM image":#create-image
 # "Update config.yml":#update-config
@@ -29,9 +33,8 @@ Create a VM image following the steps "to set up a compute node":crunch2-slurm/i
 
 On the compute VM image, add the API server's internal IP address to @/etc/hosts@, this will ensure that it contacts the API server on the private network and not through the public interface.  For example:
 
-<pre>
-10.20.30.40     ClusterID.example.com
-</pre>
+<notextile><pre><code>10.20.30.40     <span class="userinput">ClusterID.example.com</span>
+</code></pre></notextile>
 
 h2(#update-config). Update config.yml
 
@@ -66,7 +69,7 @@ You can delete the key files after you have copied the private key to your confi
 
 h3. Configure CloudVMs
 
-Add or update the following portions of your cluster configuration file, @/etc/arvados/config.yml@. Refer to "config.defaults.yml":{{site.baseurl}}/admin/config.html for information about additional configuration options.
+Add or update the following portions of your cluster configuration file, @config.yml@. Refer to "config.defaults.yml":{{site.baseurl}}/admin/config.html for information about additional configuration options.
 
 <notextile>
 <pre><code>    Services:
@@ -172,17 +175,18 @@ $ az account list
 
 You will need to create a "service principal" to use as a delegated authority for API access.
 
-<pre>
-$ az ad app create --display-name "Arvados Dispatch Cloud (ClusterID)" --homepage "https://arvados.org" --identifier-uris "https://ClusterID.example.com" --end-date 2299-12-31 --password <Your_Password>
-$ az ad sp create "<appId>"
+<notextile><pre><code>$ az ad app create --display-name "Arvados Dispatch Cloud (<span class="userinput">ClusterID</span>)" --homepage "https://arvados.org" --identifier-uris "https://<span class="userinput">ClusterID.example.com</span>" --end-date 2299-12-31 --password <span class="userinput">Your_Password</span>
+$ az ad sp create "<span class="userinput">appId</span>"
 (appId is part of the response of the previous command)
-$ az role assignment create --assignee "<objectId>" --role Owner --scope /subscriptions/{subscriptionId}/
+$ az role assignment create --assignee "<span class="userinput">objectId</span>" --role Owner --scope /subscriptions/{subscriptionId}/
 (objectId is part of the response of the previous command)
-</pre>
+</code></pre></notextile>
+
+Now update your @config.yml@ file:
 
 @ClientID@ is the 'appId' value.
 
-@ClientSecret@ is what was provided as <Your_Password>.
+@ClientSecret@ is what was provided as <span class="userinput">Your_Password</span>.
 
 h3. Test your configuration
 
index 072d2b9b593b2df41a45c0102f7ec15eb2652508..1d9b654b25c285d13ba51b843fb0c53b4ad26b4a 100644 (file)
@@ -30,13 +30,13 @@ If you are installing keep-balance on an existing system with valuable data, you
 
 h2(#update-config). Update the cluster config
 
-Edit the cluster config at @/etc/arvados/config.yml@ and set @Services.Keepbalance.InternalURLs@.  This port is only used to publish metrics.
+Edit the cluster config at @config.yml@ and set @Services.Keepbalance.InternalURLs@.  This port is only used to publish metrics.
 
 <notextile>
 <pre><code>    Services:
       Keepbalance:
         InternalURLs:
-          "http://keep.ClusterID.example.com:9005/": {}
+          "http://<span class="userinput">keep.ClusterID.example.com</span>:9005/": {}
 </code></pre>
 </notextile>
 
index 9daa90ec37f32a8cb9f133799c56f10d34333770..1ac387b64514b1c5eee51560d9bf8087e10559d8 100644 (file)
@@ -42,7 +42,7 @@ If @WebDAVDownload@ is blank, and @WebDAV@ has a single origin (not wildcard, se
 <notextile>
 <pre><code>    Services:
       WebDAVDownload:
-        ExternalURL: <span class="userinput">https://download.ClusterID.example.com</span>
+        ExternalURL: https://<span class="userinput">download.ClusterID.example.com</span>
 </code></pre>
 </notextile>
 
@@ -57,7 +57,7 @@ Collections can be served from their own subdomain:
 <notextile>
 <pre><code>    Services:
       WebDAV:
-        ExternalURL: <span class="userinput">https://*.collections.ClusterID.example.com/</span>
+        ExternalURL: https://<span class="userinput">*.collections.ClusterID.example.com/</span>
 </code></pre>
 </notextile>
 
@@ -68,7 +68,7 @@ Alternately, they can go under the main domain by including @--@:
 <notextile>
 <pre><code>    Services:
       WebDAV:
-        ExternalURL: <span class="userinput">https://*--collections.ClusterID.example.com/</span>
+        ExternalURL: https://<span class="userinput">*--collections.ClusterID.example.com/</span>
 </code></pre>
 </notextile>
 
@@ -79,7 +79,7 @@ Serve preview links from a single domain, setting uuid or pdh in the path (simil
 <notextile>
 <pre><code>    Services:
       WebDAV:
-        ExternalURL: <span class="userinput">https://collections.ClusterID.example.com/</span>
+        ExternalURL: https://<span class="userinput">collections.ClusterID.example.com/</span>
 </code></pre>
 </notextile>
 
@@ -91,7 +91,7 @@ h2. Set InternalURLs
 <pre><code>    Services:
       WebDAV:
         InternalURLs:
-          <span class="userinput">"http://localhost:9002"</span>: {}
+          http://"<span class="userinput">localhost:9002</span>": {}
 </code></pre>
 </notextile>
 
@@ -113,7 +113,7 @@ h3. Update nginx configuration
 
 Put a reverse proxy with SSL support in front of keep-web.  Keep-web itself runs on the port 25107 (or whatever is specified in @Services.Keepproxy.InternalURL@) the reverse proxy runs on port 443 and forwards requests to Keepproxy.
 
-Use a text editor to create a new file @/etc/nginx/conf.d/keep-web.conf@ with the following configuration. Options that need attention are marked with “TODO”.
+Use a text editor to create a new file @/etc/nginx/conf.d/keep-web.conf@ with the following configuration. Options that need attention are marked in <span class="userinput">red</span>.
 
 <notextile><pre>
 upstream keep-web {
@@ -122,17 +122,17 @@ upstream keep-web {
 
 server {
   listen                *:443 ssl;
-  server_name           download.<span class="userinput">ClusterID</span>.example.com
-                        collections.<span class="userinput">ClusterID</span>.example.com
-                        *.collections.<span class="userinput">ClusterID</span>.example.com
-                        ~.*--collections.<span class="userinput">ClusterID</span>.example.com;
+  server_name           <span class="userinput">download.ClusterID.example.com</span>
+                        <span class="userinput">collections.ClusterID.example.com</span>
+                        <span class="userinput">*.collections.ClusterID.example.com</span>
+                        <span class="userinput">~.*--collections.ClusterID.example.com</span>;
 
   proxy_connect_timeout 90s;
   proxy_read_timeout    300s;
 
   ssl                   on;
-  ssl_certificate       <span class="userinput">/TODO/YOUR/PATH/TO/cert.pem</span>;
-  ssl_certificate_key   <span class="userinput">/TODO/YOUR/PATH/TO/cert.key</span>;
+  ssl_certificate       <span class="userinput">/YOUR/PATH/TO/cert.pem</span>;
+  ssl_certificate_key   <span class="userinput">/YOUR/PATH/TO/cert.key</span>;
 
   location / {
     proxy_pass          http://keep-web;
@@ -164,18 +164,18 @@ In such cases -- for example, a site which is not reachable from the internet, w
 
 h2(#confirm-working). Confirm working installation
 
-<pre>
-$ curl -H "Authorization: Bearer $system_root_token" https://download.ClusterID.example.com/c=59389a8f9ee9d399be35462a0f92541c-53/_/hello.txt
-</pre>
+<notextile><code><pre>
+$ curl -H "Authorization: Bearer $system_root_token" https://<span class="userinput">download.ClusterID.example.com</span>/c=59389a8f9ee9d399be35462a0f92541c-53/_/hello.txt
+</code></pre></notextile>
 
 If wildcard collections domains are configured:
 
-<pre>
-$ curl -H "Authorization: Bearer $system_root_token" https://59389a8f9ee9d399be35462a0f92541c-53.collections.ClusterID.example.com/hello.txt
-</pre>
+<notextile><code><pre>
+$ curl -H "Authorization: Bearer $system_root_token" https://<span class="userinput">59389a8f9ee9d399be35462a0f92541c-53.collections.ClusterID.example.com</span>/hello.txt
+</code></pre></notextile>
 
 If using a single collections preview domain:
 
-<pre>
-$ curl https://collections.ClusterID.example.com/c=59389a8f9ee9d399be35462a0f92541c-53/t=$system_root_token/_/hello.txt
-</pre>
+<notextile><code><pre>
+$ curl https://<span class="userinput">collections.ClusterID.example.com</span>/c=59389a8f9ee9d399be35462a0f92541c-53/t=$system_root_token/_/hello.txt
+</code></pre></notextile>
index c0e9c48fd1501f9930d10e99efd7faa65c6d8e15..0839c0e521bd942df9ca4d7f78678bbee805c263 100644 (file)
@@ -29,14 +29,14 @@ By convention, we use the following hostname for the Keepproxy server:
 <div class="offset1">
 table(table table-bordered table-condensed).
 |_. Hostname|
-|keep.@ClusterID@.your.domain|
+|@keep.ClusterID.example.com@|
 </div>
 
 This hostname should resolve from anywhere on the internet.
 
 h2(#update-config). Update config.yml
 
-Edit the cluster config at @/etc/arvados/config.yml@ and set @Services.Keepproxy.ExternalURL@ and @Services.Keepproxy.InternalURLs@.
+Edit the cluster config at @config.yml@ and set @Services.Keepproxy.ExternalURL@ and @Services.Keepproxy.InternalURLs@.
 
 <notextile>
 <pre><code>    Services:
@@ -51,7 +51,7 @@ h2(#update-nginx). Update Nginx configuration
 
 Put a reverse proxy with SSL support in front of Keepproxy. Keepproxy itself runs on the port 25107 (or whatever is specified in @Services.Keepproxy.InternalURL@) the reverse proxy runs on port 443 and forwards requests to Keepproxy.
 
-Use a text editor to create a new file @/etc/nginx/conf.d/keepproxy.conf@ with the following configuration. Options that need attention are marked with “TODO”.
+Use a text editor to create a new file @/etc/nginx/conf.d/keepproxy.conf@ with the following configuration. Options that need attention are marked in <span class="userinput">red</span>.
 
 <notextile><pre><code>upstream keepproxy {
   server                127.0.0.1:<span class="userinput">25107</span>;
@@ -59,7 +59,7 @@ Use a text editor to create a new file @/etc/nginx/conf.d/keepproxy.conf@ with t
 
 server {
   listen                  *:443 ssl;
-  server_name             keep.<span class="userinput">ClusterID</span>.example.com;
+  server_name             <span class="userinput">keep.ClusterID.example.com</span>;
 
   proxy_connect_timeout   90s;
   proxy_read_timeout      300s;
@@ -68,8 +68,8 @@ server {
   proxy_request_buffering off;
 
   ssl on;
-  ssl_certificate     <span class="userinput">/TODO/YOUR/PATH/TO/cert.pem</span>;
-  ssl_certificate_key <span class="userinput">/TODO/YOUR/PATH/TO/cert.key</span>;
+  ssl_certificate     <span class="userinput">/YOUR/PATH/TO/cert.pem</span>;
+  ssl_certificate_key <span class="userinput">/YOUR/PATH/TO/cert.key</span>;
 
   # Clients need to be able to upload blocks of data up to 64MiB in size.
   client_max_body_size    64m;
index e51818a0d463e6c614c88c0c75f9c58aa23f1aef..fedeb3c3f6d73190e63d96e9c286bd90995d439e 100644 (file)
@@ -36,8 +36,8 @@ By convention, we use the following hostname pattern:
 <div class="offset1">
 table(table table-bordered table-condensed).
 |_. Hostname|
-|keep0.@ClusterID@.example.com|
-|keep1.@ClusterID@.example.com|
+|@keep0.ClusterID.example.com@|
+|@keep1.ClusterID.example.com@|
 </div>
 
 Keepstore servers should not be directly accessible from the Internet (they are accessed via "keepproxy":install-keepproxy.html), so the hostnames only need to resolve on the private network.
index dd8dd7b0a7b820c41f5d2842ebcefb597f54dae9..c341dea031dcd0b6fc7490105dc748bafc956b79 100644 (file)
@@ -62,13 +62,13 @@ table(table table-bordered table-condensed).
 |"Git server":install-arv-git-httpd.html |Arvados-hosted git repositories, with Arvados-token based authentication.|Optional, but required by Workflow Composer.|
 |\3=. *Crunch (running containers)*|
 |"crunch-dispatch-slurm":crunch2-slurm/install-prerequisites.html |Run analysis workflows using Docker containers distributed across a SLURM cluster.|Optional if you wish to use Arvados for data management only.|
-|"Node Manager":install-nodemanager.html |Allocate and free cloud VM instances on demand based on workload.|Optional, not needed for a static SLURM cluster (such as on-premise HPC).|
+|"Node Manager":install-nodemanager.html, "arvados-dispatch-cloud":install-dispatch-cloud.html |Allocate and free cloud VM instances on demand based on workload.|Optional, not needed for a static SLURM cluster (such as on-premise HPC).|
 
 h2(#identity). Identity provider
 
 Choose which backend you will use to authenticate users.
 
-* Google login to authenticate users with a Google account.  Note: if you only use Google, you can use @arvados-controller@ support for Google login, and do not need to install the Arvados Single Sign-On server (SSO).
+* Google login to authenticate users with a Google account.  Note: if you only use this identity provider, login can be handled by @arvados-controller@ (recommended), and you do not need to install the Arvados Single Sign-On server (SSO).
 * LDAP login to authenticate users using the LDAP protocol, supported by many services such as OpenLDAP and Active Directory.  Supports username/password authentication.
 * Standalone SSO server user database.  Supports username/password authentication.  Supports new user sign-up.
 
@@ -88,15 +88,15 @@ h2(#scheduler). Container compute scheduler
 
 Choose which backend you will use to schedule computation.
 
-* On AWS EC2 and Azure, you probably want to use @crunch-dispatch-cloud@ to manage the full lifecycle of cloud compute nodes: starting up nodes sized to the container request, executing containers on those nodes, and shutting nodes down when no longer needed.
+* On AWS EC2 and Azure, you probably want to use @arvados-dispatch-cloud@ to manage the full lifecycle of cloud compute nodes: starting up nodes sized to the container request, executing containers on those nodes, and shutting nodes down when no longer needed.
 * For on-premise HPC clusters using "slurm":https://slurm.schedmd.com/ use @crunch-dispatch-slurm@ to execute containers with slurm job submissions.
 * For single node demos, use @crunch-dispatch-local@ to execute containers directly.
 
 h2(#machines). Hardware (or virtual machines)
 
-Choose how to allocate Arvados services to machines.  We recommend that each machine start with a clean installation of your preferred Linux distribution.
+Choose how to allocate Arvados services to machines.  We recommend that each machine start with a clean installation of a supported GNU/Linux distribution.
 
-For a production installation, this is a reasonable configuration:
+For a production installation, this is a reasonable starting point: 
 
 <div class="offset1">
 table(table table-bordered table-condensed).
@@ -105,7 +105,7 @@ table(table table-bordered table-condensed).
 |Single Sign-On (SSO) server ^1^|1|2 GiB RAM|
 |Workbench, Keepproxy, Keep-web, Keep-balance|1|8 GiB RAM, 2+ cores|
 |Keepstore servers ^2^|2+|4 GiB RAM|
-|Compute worker nodes ^2^|2+ |Depends on workload|
+|Compute worker nodes ^2^|0+ |Depends on workload; scaled dynamically in the cloud|
 |User shell nodes ^3^|0+|Depends on workload|
 </div>
 
@@ -130,25 +130,25 @@ You may also use a different method to pick the cluster identifier. The cluster
 
 h2(#dnstls). DNS entries and TLS certificates
 
-The following services are normally public-facing and require DNS entries and corresponding TLS certificates.  Get certificates from your preferred TLS certificate provider.  We recommend using "Let's Encrypt":https://letsencrypt.org/ .  You can run several services on same node, but each distinct hostname requires its own TLS certificate.
+The following services are normally public-facing and require DNS entries and corresponding TLS certificates.  Get certificates from your preferred TLS certificate provider.  We recommend using "Let's Encrypt":https://letsencrypt.org/.  You can run several services on same node, but each distinct hostname requires its own TLS certificate.
 
 This guide uses the following hostname conventions.  A later part of this guide will describe how to set up Nginx virtual hosts.
 
 <div class="offset1">
 table(table table-bordered table-condensed).
 |_. Function|_. Hostname|
-|Arvados API|@ClusterID@.example.com|
-|Arvados Git server|git.@ClusterID@.example.com|
-|Arvados Websockets endpoint|ws.@ClusterID@.example.com|
-|Arvados SSO Server|auth.example.com|
-|Arvados Workbench|workbench.@ClusterID@.example.com|
-|Arvados Workbench 2|workbench2.@ClusterID@.example.com|
-|Arvados Keepproxy server|keep.@ClusterID@.example.com|
-|Arvados Keep-web server|download.@ClusterID@.example.com
+|Arvados API|@ClusterID.example.com@|
+|Arvados Git server|git.@ClusterID.example.com@|
+|Arvados Websockets endpoint|ws.@ClusterID.example.com@|
+|Arvados SSO Server|@auth.example.com@|
+|Arvados Workbench|workbench.@ClusterID.example.com@|
+|Arvados Workbench 2|workbench2.@ClusterID.example.com@|
+|Arvados Keepproxy server|keep.@ClusterID.example.com@|
+|Arvados Keep-web server|download.@ClusterID.example.com@
 _and_
-*.collections.@ClusterID@.example.com or
-*<notextile>--</notextile>collections.@ClusterID@.example.com or
-collections.@ClusterID@.example.com (see the "keep-web install docs":install-keep-web.html)|
+*.collections.@ClusterID.example.com@ or
+*<notextile>--</notextile>collections.@ClusterID.example.com@ or
+collections.@ClusterID.example.com@ (see the "keep-web install docs":install-keep-web.html)|
 </div>
 
 {% include 'notebox_begin' %}
index 3bc975ddd3642cef40059cf55e5f73af2ec37a55..4d91b18c00d1a43d9177c81f4160d2898a8703cf 100644 (file)
@@ -9,6 +9,10 @@ Copyright (C) The Arvados Authors. All rights reserved.
 SPDX-License-Identifier: CC-BY-SA-3.0
 {% endcomment %}
 
+{% include 'notebox_begin_warning' %}
+Skip this section if you are using Google login via @arvados-controller@.
+{% include 'notebox_end' %}
+
 # "Install dependencies":#dependencies
 # "Set up database":#database-setup
 # "Update config.yml":#update-config
@@ -166,7 +170,7 @@ Next, copy the values of *Client ID* and *Client secret* from the Google Develop
 
 h2(#update-nginx). Update nginx configuration
 
-Use a text editor to create a new file @/etc/nginx/conf.d/arvados-sso.conf@ with the following configuration.  Options that need attention are marked with "TODO".
+Use a text editor to create a new file @/etc/nginx/conf.d/arvados-sso.conf@ with the following configuration.  Options that need attention are marked in <span class="userinput">red</span>.
 
 <notextile>
 <pre><code>server {
@@ -174,16 +178,16 @@ Use a text editor to create a new file @/etc/nginx/conf.d/arvados-sso.conf@ with
   server_name  <span class="userinput">auth.ClusterID.example.com</span>;
 
   ssl on;
-  ssl_certificate     <span class="userinput">/TODO/YOUR/PATH/TO/cert.pem</span>;
-  ssl_certificate_key <span class="userinput">/TODO/YOUR/PATH/TO/cert.key</span>;
+  ssl_certificate     <span class="userinput">/YOUR/PATH/TO/cert.pem</span>;
+  ssl_certificate_key <span class="userinput">/YOUR/PATH/TO/cert.key</span>;
 
   root   /var/www/arvados-sso/current/public;
   index  index.html;
 
   passenger_enabled on;
 
-  # TODO: If you are using RVM, uncomment the line below.
-  # If you're using system ruby, leave it commented out.
+  # <span class="userinput">If you are using RVM, uncomment the line below.</span>
+  # <span class="userinput">If you're using system ruby, leave it commented out.</span>
   #passenger_ruby /usr/local/rvm/wrappers/default/ruby;
 }
 </code></pre>
index 17c6b5899c9981bea73dca57a8bf5130abea95e6..3d391724dc1e619590c97cb0bb47c25971e6e05d 100644 (file)
@@ -25,7 +25,7 @@ h2(#dependencies). Install dependencies
 
 h2(#configure). Update config.yml
 
-Edit @/etc/arvados/config.yml@ to set the keys below.  The full set of configuration options are in the "Workbench section of config.yml":{{site.baseurl}}/admin/config.html
+Edit @config.yml@ to set the keys below.  The full set of configuration options are in the "Workbench section of config.yml":{{site.baseurl}}/admin/config.html
 
 <notextile>
 <pre><code>    Services:
@@ -52,7 +52,7 @@ You probably want to enable @Users.AutoAdminFirstUser@ .  The first user to log
 
 h2(#update-nginx). Update nginx configuration
 
-Use a text editor to create a new file @/etc/nginx/conf.d/arvados-workbench.conf@ with the following configuration.  Options that need attention are marked with "TODO".
+Use a text editor to create a new file @/etc/nginx/conf.d/arvados-workbench.conf@ with the following configuration.  Options that need attention are marked in <span class="userinput">red</span>.
 
 <notextile>
 <pre><code>server {
index cd71312722952479a4ca61b46bce4b9ba0f96c88..9e28e152082a7ab4fc0801f6c61546cc42e38397 100644 (file)
@@ -24,7 +24,7 @@ Workbench2 is the replacement for Arvados Workbench. Workbench2 is currently in
 
 h2(#configure). Update config.yml
 
-Edit @/etc/arvados/config.yml@ to set the keys below.  The full set of configuration options are in the "Workbench section of config.yml":{{site.baseurl}}/admin/config.html
+Edit @config.yml@ to set the keys below.  The full set of configuration options are in the "Workbench section of config.yml":{{site.baseurl}}/admin/config.html
 
 <notextile>
 <pre><code>    Services:
@@ -37,7 +37,7 @@ h2(#update-nginx). Update Nginx configuration
 
 Workbench2 does not require its own database. It is a set of html, javascript and css files that are served as static files from Nginx.
 
-Use a text editor to create a new file @/etc/nginx/conf.d/arvados-workbench2.conf@ with the following configuration.  Options that need attention are marked with "TODO".
+Use a text editor to create a new file @/etc/nginx/conf.d/arvados-workbench2.conf@ with the following configuration.  Options that need attention are marked in <span class="userinput">red</span>.
 
 <notextile>
 <pre><code>server {
@@ -51,13 +51,13 @@ server {
   server_name  workbench2.<span class="userinput">ClusterID.example.com</span>;
 
   ssl on;
-  ssl_certificate     <span class="userinput">/TODO/YOUR/PATH/TO/cert.pem</span>;
-  ssl_certificate_key <span class="userinput">/TODO/YOUR/PATH/TO/cert.key</span>;
+  ssl_certificate     <span class="userinput">/YOUR/PATH/TO/cert.pem</span>;
+  ssl_certificate_key <span class="userinput">/YOUR/PATH/TO/cert.key</span>;
 
   index  index.html;
 
-  # TODO: Workbench2 uses a call to /config.json to bootstrap itself
-  # and find out where to contact the API server.
+  # <span class="userinput">Workbench2 uses a call to /config.json to bootstrap itself</span>
+  # <span class="userinput">and find out where to contact the API server.</span>
   location /config.json {
     return 200 '{ "API_HOST": "<span class="userinput">ClusterID.example.com</span>" }';
   }
index 748de64ea62c403e403c04cc973b2075f3bea114..b2605d86c6dc1009b3d357b617d4d36752f301c2 100644 (file)
@@ -20,7 +20,7 @@ The arvados-ws server provides event notifications to websocket clients. It can
 
 h2(#configure). Update config.yml
 
-Edit the cluster config at @/etc/arvados/config.yml@ and set @Services.Websocket.ExternalURL@ and @Services.Websocket.InternalURLs@.  Replace @zzzzz@ with your cluster id.
+Edit the cluster config at @config.yml@ and set @Services.Websocket.ExternalURL@ and @Services.Websocket.InternalURLs@.  Replace @zzzzz@ with your cluster id.
 
 <notextile>
 <pre><code>    Services:
@@ -35,7 +35,7 @@ h2(#update-nginx). Update Nginx configuration
 
 The arvados-ws service will be accessible from anywhere on the internet, so we recommend using SSL for transport encryption.
 
-Use a text editor to create a new file @/etc/nginx/conf.d/arvados-ws.conf@ with the following configuration.  Options that need attention are marked with "TODO".
+Use a text editor to create a new file @/etc/nginx/conf.d/arvados-ws.conf@ with the following configuration.  Options that need attention are marked in <span class="userinput">red</span>.
 
 <notextile><pre>
 upstream arvados-ws {
@@ -50,8 +50,8 @@ server {
   proxy_read_timeout    300s;
 
   ssl                   on;
-  ssl_certificate       <span class="userinput">/TODO/YOUR/PATH/TO/cert.pem</span>;
-  ssl_certificate_key   <span class="userinput">/TODO/YOUR/PATH/TO/cert.key</span>;
+  ssl_certificate       <span class="userinput">/YOUR/PATH/TO/cert.pem</span>;
+  ssl_certificate_key   <span class="userinput">/YOUR/PATH/TO/cert.key</span>;
 
   location / {
     proxy_pass          http://arvados-ws;
@@ -85,7 +85,7 @@ h2(#confirm). Confirm working installation
 Confirm the service is listening on its assigned port and responding to requests.
 
 <notextile>
-<pre><code>~$ <span class="userinput">curl https://ws.ClusterID.example.com/status.json</span>
+<pre><code>~$ <span class="userinput">curl https://<span class="userinput">ws.ClusterID.example.com</span>/status.json</span>
 {"Clients":1}
 </code></pre>
 </notextile>
index 364cc9c3f69d9948bec0e22ba2af64c04e8b853f..d86f3858b1396a005231f111cf4da412bd3b7399 100644 (file)
@@ -11,7 +11,10 @@ SPDX-License-Identifier: CC-BY-SA-3.0
 
 h3. Centos 7
 
-???
+<notextile>
+<pre><code># <span class="userinput">yum install epel-release</span></code>
+<code># <span class="userinput">yum install nginx</span></code></pre>
+</notextile>
 
 h3. Debian and Ubuntu
 
index 8507d0264428822d53423b96d00a14c538a06b84..ed392b6667f1257362eaa38706dae2eae5fbe8dd 100644 (file)
@@ -33,7 +33,7 @@ h3(#debian). Debian and Ubuntu
 
 Packages are available for recent versions of Debian and Ubuntu.
 
-First, register the Curoverse signing key in apt's database:
+First, register the Arvados signing key in apt's database:
 
 {% include 'install_debian_key' %}
 
index f1adfe28545fe235ddd64e0eed882c7a84966e88..0f0e40be9c4afdd136cdfdc17d6856c93453b047 100644 (file)
@@ -23,7 +23,7 @@ h2. arv-copy
 
 For example, let's copy from the <a href="https://playground.arvados.org/">Arvados playground</a>, also known as *qr1hi*, to *dst_cluster*. The names *qr1hi* and *dst_cluster* are interchangable with any cluster name. You can find the cluster name from the prefix of the uuid of the object you want to copy. For example, in *qr1hi*-4zz18-tci4vn4fa95w0zx, the cluster name is qr1hi.
 
-In order to communicate with both clusters, you must create custom configuration files for each cluster. In the Arvados Workbench, click on the dropdown menu icon <span class="fa fa-lg fa-user"></span> <span class="caret"></span> in the upper right corner of the top navigation menu to access the user settings menu, and click on the menu item *Current token*. Copy the @ARVADOS_API_HOST@ and @ARVADOS_API_TOKEN@ in both of your clusters. Then, create two configuration files, one for each cluster. The names of the files must have the format of *uuid_prefix.conf*. In our example, let's make two files, one for *qr1hi* and one for *dst_cluster*. From your *Current token* page in *qr1hi* and *dst_cluster*, copy the @ARVADOS_API_HOST@ and @ARVADOS_API_TOKEN@.
+In order to communicate with both clusters, you must create custom configuration files for each cluster. In the Arvados Workbench, click on the dropdown menu icon <span class="fa fa-lg fa-user"></span> <span class="caret"></span> in the upper right corner of the top navigation menu to access the user settings menu, and click on the menu item *Current token*. Copy the @ARVADOS_API_HOST@ and @ARVADOS_API_TOKEN@ in both of your clusters. Then, create two configuration files, one for each cluster. The names of the files must have the format of *ClusterID.conf*. In our example, let's make two files, one for *qr1hi* and one for *dst_cluster*. From your *Current token* page in *qr1hi* and *dst_cluster*, copy the @ARVADOS_API_HOST@ and @ARVADOS_API_TOKEN@.
 
 !{display: block;margin-left: 25px;margin-right: auto;}{{ site.baseurl }}/images/api-token-host.png!
 
index a4e0f5edc20672cb2ac462f4fbc9be661c336d09..9397d61e05ff2cfdb8ef1e13f3e1e31d1fbd57c1 100644 (file)
@@ -13,12 +13,12 @@ OS X users can browse Keep read-only via WebDAV. Specific collections can also b
 
 h3. Browsing Keep (read-only)
 
-In Finder, use "Connect to Server..." under the "Go" menu and enter @https://collections.uuid_prefix.your.domain/@ in popup dialog. When prompted for credentials, put a valid Arvados token in the @Password@ field and anything in the Name field (it will be ignored by Arvados).
+In Finder, use "Connect to Server..." under the "Go" menu and enter @https://collections.ClusterID.example.com/@ in popup dialog. When prompted for credentials, put a valid Arvados token in the @Password@ field and anything in the Name field (it will be ignored by Arvados).
 
 This mount is read-only. Write support for the @/users/@ directory is planned for a future release.
 
 h3. Accessing a specific collection in Keep (read-write)
 
-In Finder, use "Connect to Server..." under the "Go" menu and enter @https://collections.uuid_prefix.your.domain/@ in popup dialog. When prompted for credentials, put a valid Arvados token in the @Password@ field and anything in the Name field (it will be ignored by Arvados).
+In Finder, use "Connect to Server..." under the "Go" menu and enter @https://collections.ClusterID.example.com/@ in popup dialog. When prompted for credentials, put a valid Arvados token in the @Password@ field and anything in the Name field (it will be ignored by Arvados).
 
 This collection is now accessible read/write.
index 4384cd0c76398b58f68cc0edfef1661ecab464fd..29b28fff9ca6d13cfbde96026e537447708dd1c0 100644 (file)
@@ -13,12 +13,12 @@ Windows users can browse Keep read-only via WebDAV. Specific collections can als
 
 h3. Browsing Keep (read-only)
 
-Use the 'Map network drive' functionality, and enter @https://collections.uuid_prefix.your.domain/@ in the Folder field. When prompted for credentials, you can fill in an arbitrary string for @Username@, it is ignored by Arvados. Windows will not accept an empty @Username@. Put a valid Arvados token in the @Password@ field.
+Use the 'Map network drive' functionality, and enter @https://collections.ClusterID.example.com/@ in the Folder field. When prompted for credentials, you can fill in an arbitrary string for @Username@, it is ignored by Arvados. Windows will not accept an empty @Username@. Put a valid Arvados token in the @Password@ field.
 
 This mount is read-only. Write support for the @/users/@ directory is planned for a future release.
 
 h3. Accessing a specific collection in Keep (read-write)
 
-Use the 'Map network drive' functionality, and enter @https://collections.uuid_prefix.your.domain/c=your-collection-uuid@ in the Folder field. When prompted for credentials, you can fill in an arbitrary string for @Username@, it is ignored by Arvados. Windows will not accept an empty @Username@. Put a valid token in the @Password@ field.
+Use the 'Map network drive' functionality, and enter @https://collections.ClusterID.example.com/c=your-collection-uuid@ in the Folder field. When prompted for credentials, you can fill in an arbitrary string for @Username@, it is ignored by Arvados. Windows will not accept an empty @Username@. Put a valid token in the @Password@ field.
 
 This collection is now accessible read/write.