Merge branch '5992-keep-proxy-ignore-locator-hints' closes #5992
[arvados.git] / services / api / config / application.default.yml
index b57c0165cf997125613918c11b3a281b938bfae0..d46c3978a641187924bcc22da8f3a06d7bf1996a 100644 (file)
@@ -231,9 +231,9 @@ common:
   # Datamanager considers an unreferenced block older than this to be
   # eligible for garbage collection. Therefore, it should never be
   # smaller than the corresponding value used by any local keepstore
-  # service (see keepstore -blob-signing-ttl flag). This rule prevents
-  # datamanager from trying to garbage-collect recently written blocks
-  # while clients are still holding valid signatures.
+  # service (see keepstore -blob-signature-ttl flag). This rule
+  # prevents datamanager from trying to garbage-collect recently
+  # written blocks while clients are still holding valid signatures.
   #
   # The default is 2 weeks.
   blob_signature_ttl: 1209600
@@ -290,7 +290,27 @@ common:
   # actually enforce the desired maximum request size on the server side.
   max_request_size: 134217728
 
+  # Stop collecting records for an index request after we read this much
+  # data (in bytes) from large database columns.
+  # Currently only `GET /collections` respects this parameter, when the
+  # user requests an index that includes manifest_text.  Once the API
+  # server collects records with a total manifest_text size at or above
+  # this amount, it returns those results immediately.
+  # Note this is a threshold, not a limit.  Record collection stops
+  # *after* reading this much data.
+  max_index_database_read: 134217728
+
   # When you run the db:delete_old_job_logs task, it will find jobs that
   # have been finished for at least this many seconds, and delete their
   # stderr logs from the logs table.
   clean_job_log_rows_after: <%= 30.days %>
+
+  # The maximum number of compute nodes that can be in use simultaneously
+  # If this limit is reduced, any existing nodes with slot number >= new limit
+  # will not be counted against the new limit. In other words, the new limit
+  # won't be strictly enforced until those nodes with higher slot numbers
+  # go down.
+  max_compute_nodes: 64
+
+  # Docker image to be used when none found in runtime_constraints of a job
+  default_docker_image_for_jobs: false