Merge branch 'master' into 6156-hostnames-in-nodes
[arvados.git] / services / api / config / application.default.yml
index 994748baf7ff9398dca048c5125e822ec8e6cdd6..9b758e69178ab5a0d74b72e602e64dd7e3b05d84 100644 (file)
@@ -295,20 +295,24 @@ common:
   # collection's replication_desired attribute is nil.
   default_collection_replication: 2
 
-  # Maximum size (in bytes) allowed for a single API request that will be
-  # published in the discovery document for use by clients.
-  # Note you must separately configure the upstream web server or proxy to
-  # actually enforce the desired maximum request size on the server side.
+  # Maximum size (in bytes) allowed for a single API request.  This
+  # limit is published in the discovery document for use by clients.
+  # Note: You must separately configure the upstream web server or
+  # proxy to actually enforce the desired maximum request size on the
+  # server side.
   max_request_size: 134217728
 
-  # Stop collecting records for an index request after we read this much
-  # data (in bytes) from large database columns.
-  # Currently only `GET /collections` respects this parameter, when the
-  # user requests an index that includes manifest_text.  Once the API
-  # server collects records with a total manifest_text size at or above
-  # this amount, it returns those results immediately.
-  # Note this is a threshold, not a limit.  Record collection stops
-  # *after* reading this much data.
+  # Limit the number of bytes read from the database during an index
+  # request (by retrieving and returning fewer rows than would
+  # normally be returned in a single response).
+  # Note 1: This setting never reduces the number of returned rows to
+  # zero, no matter how big the first data row is.
+  # Note 2: Currently, this only limits the
+  # arvados.v1.collections.list API (GET /arvados/v1/collections), and
+  # only takes the size of manifest_text into account. Other fields
+  # (e.g., "properties" hashes) are not counted against this limit
+  # when returning collections, and the limit is not applied at all
+  # for other data types.
   max_index_database_read: 134217728
 
   # When you run the db:delete_old_job_logs task, it will find jobs that
@@ -325,3 +329,19 @@ common:
 
   # Docker image to be used when none found in runtime_constraints of a job
   default_docker_image_for_jobs: false
+
+  # Hostname to assign to a compute node when it sends a "ping" and the
+  # hostname in its Node record is nil.
+  # During bootstrapping, the "ping" script is expected to notice the
+  # hostname given in the ping response, and update its unix hostname
+  # accordingly.
+  # If false, leave the hostname alone (this is appropriate if your compute
+  # nodes' hostnames are already assigned by some other mechanism).
+  #
+  # One way or another, the hostnames of your node records should agree
+  # with your DNS records and your /etc/slurm-llnl/slurm.conf files.
+  #
+  # Example for compute0000, compute0001, ....:
+  # assign_node_hostname: compute%<slot_number>04d
+  # (See http://ruby-doc.org/core-2.2.2/Kernel.html#method-i-format for more.)
+  assign_node_hostname: compute%<slot_number>d