15003: Fix errant warnings on PostgreSQL params and InternalURLs.
[arvados.git] / lib / config / generated_config.go
1 // Copyright (C) The Arvados Authors. All rights reserved.
2 //
3 // SPDX-License-Identifier: AGPL-3.0
4
5 package config
6
7 var DefaultYAML = []byte(`# Copyright (C) The Arvados Authors. All rights reserved.
8 #
9 # SPDX-License-Identifier: AGPL-3.0
10
11 # Do not use this file for site configuration. Create
12 # /etc/arvados/config.yml instead.
13 #
14 # The order of precedence (highest to lowest):
15 # 1. Legacy component-specific config files (deprecated)
16 # 2. /etc/arvados/config.yml
17 # 3. config.default.yml
18
19 Clusters:
20   xxxxx:
21     SystemRootToken: ""
22
23     # Token to be included in all healthcheck requests. Disabled by default.
24     # Server expects request header of the format "Authorization: Bearer xxx"
25     ManagementToken: ""
26
27     Services:
28
29       # In each of the service sections below, the keys under
30       # InternalURLs are the endpoints where the service should be
31       # listening, and reachable from other hosts in the cluster.
32       SAMPLE:
33         InternalURLs:
34           "http://example.host:12345": {}
35           SAMPLE: {}
36         ExternalURL: "-"
37
38       RailsAPI:
39         InternalURLs: {}
40         ExternalURL: "-"
41       Controller:
42         InternalURLs: {}
43         ExternalURL: ""
44       Websocket:
45         InternalURLs: {}
46         ExternalURL: ""
47       Keepbalance:
48         InternalURLs: {}
49         ExternalURL: "-"
50       GitHTTP:
51         InternalURLs: {}
52         ExternalURL: ""
53       GitSSH:
54         InternalURLs: {}
55         ExternalURL: ""
56       DispatchCloud:
57         InternalURLs: {}
58         ExternalURL: "-"
59       SSO:
60         InternalURLs: {}
61         ExternalURL: ""
62       Keepproxy:
63         InternalURLs: {}
64         ExternalURL: ""
65       WebDAV:
66         InternalURLs: {}
67         # Base URL for Workbench inline preview.  If blank, use
68         # WebDAVDownload instead, and disable inline preview.
69         # If both are empty, downloading collections from workbench
70         # will be impossible.
71         #
72         # It is important to properly configure the download service
73         # to migitate cross-site-scripting (XSS) attacks.  A HTML page
74         # can be stored in collection.  If an attacker causes a victim
75         # to visit that page through Workbench, it will be rendered by
76         # the browser.  If all collections are served at the same
77         # domain, the browser will consider collections as coming from
78         # the same origin and having access to the same browsing data,
79         # enabling malicious Javascript on that page to access Arvados
80         # on behalf of the victim.
81         #
82         # This is mitigating by having separate domains for each
83         # collection, or limiting preview to circumstances where the
84         # collection is not accessed with the user's regular
85         # full-access token.
86         #
87         # Serve preview links using uuid or pdh in subdomain
88         # (requires wildcard DNS and TLS certificate)
89         #   https://*.collections.uuid_prefix.arvadosapi.com
90         #
91         # Serve preview links using uuid or pdh in main domain
92         # (requires wildcard DNS and TLS certificate)
93         #   https://*--collections.uuid_prefix.arvadosapi.com
94         #
95         # Serve preview links by setting uuid or pdh in the path.
96         # This configuration only allows previews of public data or
97         # collection-sharing links, because these use the anonymous
98         # user token or the token is already embedded in the URL.
99         # Other data must be handled as downloads via WebDAVDownload:
100         #   https://collections.uuid_prefix.arvadosapi.com
101         #
102         ExternalURL: ""
103
104       WebDAVDownload:
105         InternalURLs: {}
106         # Base URL for download links. If blank, serve links to WebDAV
107         # with disposition=attachment query param.  Unlike preview links,
108         # browsers do not render attachments, so there is no risk of XSS.
109         #
110         # If WebDAVDownload is blank, and WebDAV uses a
111         # single-origin form, then Workbench will show an error page
112         #
113         # Serve download links by setting uuid or pdh in the path:
114         #   https://download.uuid_prefix.arvadosapi.com
115         #
116         ExternalURL: ""
117
118       Keepstore:
119         InternalURLs: {}
120         ExternalURL: "-"
121       Composer:
122         InternalURLs: {}
123         ExternalURL: ""
124       WebShell:
125         InternalURLs: {}
126         # ShellInABox service endpoint URL for a given VM.  If empty, do not
127         # offer web shell logins.
128         #
129         # E.g., using a path-based proxy server to forward connections to shell hosts:
130         # https://webshell.uuid_prefix.arvadosapi.com
131         #
132         # E.g., using a name-based proxy server to forward connections to shell hosts:
133         # https://*.webshell.uuid_prefix.arvadosapi.com
134         ExternalURL: ""
135       Workbench1:
136         InternalURLs: {}
137         ExternalURL: ""
138       Workbench2:
139         InternalURLs: {}
140         ExternalURL: ""
141       Nodemanager:
142         InternalURLs: {}
143         ExternalURL: "-"
144       Health:
145         InternalURLs: {}
146         ExternalURL: "-"
147
148     PostgreSQL:
149       # max concurrent connections per arvados server daemon
150       ConnectionPool: 32
151       Connection:
152         # All parameters here are passed to the PG client library in a connection string;
153         # see https://www.postgresql.org/docs/current/static/libpq-connect.html#LIBPQ-PARAMKEYWORDS
154         host: ""
155         port: ""
156         user: ""
157         password: ""
158         dbname: ""
159         SAMPLE: ""
160     API:
161       # Maximum size (in bytes) allowed for a single API request.  This
162       # limit is published in the discovery document for use by clients.
163       # Note: You must separately configure the upstream web server or
164       # proxy to actually enforce the desired maximum request size on the
165       # server side.
166       MaxRequestSize: 134217728
167
168       # Limit the number of bytes read from the database during an index
169       # request (by retrieving and returning fewer rows than would
170       # normally be returned in a single response).
171       # Note 1: This setting never reduces the number of returned rows to
172       # zero, no matter how big the first data row is.
173       # Note 2: Currently, this is only checked against a specific set of
174       # columns that tend to get large (collections.manifest_text,
175       # containers.mounts, workflows.definition). Other fields (e.g.,
176       # "properties" hashes) are not counted against this limit.
177       MaxIndexDatabaseRead: 134217728
178
179       # Maximum number of items to return when responding to a APIs that
180       # can return partial result sets using limit and offset parameters
181       # (e.g., *.index, groups.contents). If a request specifies a "limit"
182       # parameter higher than this value, this value is used instead.
183       MaxItemsPerResponse: 1000
184
185       # API methods to disable. Disabled methods are not listed in the
186       # discovery document, and respond 404 to all requests.
187       # Example: ["jobs.create", "pipeline_instances.create"]
188       DisabledAPIs: []
189
190       # Interval (seconds) between asynchronous permission view updates. Any
191       # permission-updating API called with the 'async' parameter schedules a an
192       # update on the permission view in the future, if not already scheduled.
193       AsyncPermissionsUpdateInterval: 20s
194
195       # Maximum number of concurrent outgoing requests to make while
196       # serving a single incoming multi-cluster (federated) request.
197       MaxRequestAmplification: 4
198
199       # RailsSessionSecretToken is a string of alphanumeric characters
200       # used by Rails to sign session tokens. IMPORTANT: This is a
201       # site secret. It should be at least 50 characters.
202       RailsSessionSecretToken: ""
203
204       # Maximum wall clock time to spend handling an incoming request.
205       RequestTimeout: 5m
206
207     Users:
208       # Config parameters to automatically setup new users.  If enabled,
209       # this users will be able to self-activate.  Enable this if you want
210       # to run an open instance where anyone can create an account and use
211       # the system without requiring manual approval.
212       #
213       # The params auto_setup_new_users_with_* are meaningful only when auto_setup_new_users is turned on.
214       # auto_setup_name_blacklist is a list of usernames to be blacklisted for auto setup.
215       AutoSetupNewUsers: false
216       AutoSetupNewUsersWithVmUUID: ""
217       AutoSetupNewUsersWithRepository: false
218       AutoSetupUsernameBlacklist: [arvados, git, gitolite, gitolite-admin, root, syslog]
219
220       # When new_users_are_active is set to true, new users will be active
221       # immediately.  This skips the "self-activate" step which enforces
222       # user agreements.  Should only be enabled for development.
223       NewUsersAreActive: false
224
225       # The e-mail address of the user you would like to become marked as an admin
226       # user on their first login.
227       # In the default configuration, authentication happens through the Arvados SSO
228       # server, which uses OAuth2 against Google's servers, so in that case this
229       # should be an address associated with a Google account.
230       AutoAdminUserWithEmail: ""
231
232       # If auto_admin_first_user is set to true, the first user to log in when no
233       # other admin users exist will automatically become an admin user.
234       AutoAdminFirstUser: false
235
236       # Email address to notify whenever a user creates a profile for the
237       # first time
238       UserProfileNotificationAddress: ""
239       AdminNotifierEmailFrom: arvados@example.com
240       EmailSubjectPrefix: "[ARVADOS] "
241       UserNotifierEmailFrom: arvados@example.com
242       NewUserNotificationRecipients: []
243       NewInactiveUserNotificationRecipients: []
244
245       # Set anonymous_user_token to enable anonymous user access. You can get
246       # the token by running "bundle exec ./script/get_anonymous_user_token.rb"
247       # in the directory where your API server is running.
248       AnonymousUserToken: ""
249
250     AuditLogs:
251       # Time to keep audit logs, in seconds. (An audit log is a row added
252       # to the "logs" table in the PostgreSQL database each time an
253       # Arvados object is created, modified, or deleted.)
254       #
255       # Currently, websocket event notifications rely on audit logs, so
256       # this should not be set lower than 300 (5 minutes).
257       MaxAge: 336h
258
259       # Maximum number of log rows to delete in a single SQL transaction.
260       #
261       # If max_audit_log_delete_batch is 0, log entries will never be
262       # deleted by Arvados. Cleanup can be done by an external process
263       # without affecting any Arvados system processes, as long as very
264       # recent (<5 minutes old) logs are not deleted.
265       #
266       # 100000 is a reasonable batch size for most sites.
267       MaxDeleteBatch: 0
268
269       # Attributes to suppress in events and audit logs.  Notably,
270       # specifying ["manifest_text"] here typically makes the database
271       # smaller and faster.
272       #
273       # Warning: Using any non-empty value here can have undesirable side
274       # effects for any client or component that relies on event logs.
275       # Use at your own risk.
276       UnloggedAttributes: []
277
278     SystemLogs:
279
280       # Logging threshold: panic, fatal, error, warn, info, debug, or
281       # trace
282       LogLevel: info
283
284       # Logging format: json or text
285       Format: json
286
287       # Maximum characters of (JSON-encoded) query parameters to include
288       # in each request log entry. When params exceed this size, they will
289       # be JSON-encoded, truncated to this size, and logged as
290       # params_truncated.
291       MaxRequestLogParamsSize: 2000
292
293     Collections:
294       # Allow clients to create collections by providing a manifest with
295       # unsigned data blob locators. IMPORTANT: This effectively disables
296       # access controls for data stored in Keep: a client who knows a hash
297       # can write a manifest that references the hash, pass it to
298       # collections.create (which will create a permission link), use
299       # collections.get to obtain a signature for that data locator, and
300       # use that signed locator to retrieve the data from Keep. Therefore,
301       # do not turn this on if your users expect to keep data private from
302       # one another!
303       BlobSigning: true
304
305       # BlobSigningKey is a string of alphanumeric characters used to
306       # generate permission signatures for Keep locators. It must be
307       # identical to the permission key given to Keep. IMPORTANT: This is
308       # a site secret. It should be at least 50 characters.
309       #
310       # Modifying blob_signing_key will invalidate all existing
311       # signatures, which can cause programs to fail (e.g., arv-put,
312       # arv-get, and Crunch jobs).  To avoid errors, rotate keys only when
313       # no such processes are running.
314       BlobSigningKey: ""
315
316       # Default replication level for collections. This is used when a
317       # collection's replication_desired attribute is nil.
318       DefaultReplication: 2
319
320       # Lifetime (in seconds) of blob permission signatures generated by
321       # the API server. This determines how long a client can take (after
322       # retrieving a collection record) to retrieve the collection data
323       # from Keep. If the client needs more time than that (assuming the
324       # collection still has the same content and the relevant user/token
325       # still has permission) the client can retrieve the collection again
326       # to get fresh signatures.
327       #
328       # This must be exactly equal to the -blob-signature-ttl flag used by
329       # keepstore servers.  Otherwise, reading data blocks and saving
330       # collections will fail with HTTP 403 permission errors.
331       #
332       # Modifying blob_signature_ttl invalidates existing signatures; see
333       # blob_signing_key note above.
334       #
335       # The default is 2 weeks.
336       BlobSigningTTL: 336h
337
338       # Default lifetime for ephemeral collections: 2 weeks. This must not
339       # be less than blob_signature_ttl.
340       DefaultTrashLifetime: 336h
341
342       # Interval (seconds) between trash sweeps. During a trash sweep,
343       # collections are marked as trash if their trash_at time has
344       # arrived, and deleted if their delete_at time has arrived.
345       TrashSweepInterval: 60s
346
347       # If true, enable collection versioning.
348       # When a collection's preserve_version field is true or the current version
349       # is older than the amount of seconds defined on preserve_version_if_idle,
350       # a snapshot of the collection's previous state is created and linked to
351       # the current collection.
352       CollectionVersioning: false
353
354       #   0s = auto-create a new version on every update.
355       #  -1s = never auto-create new versions.
356       # > 0s = auto-create a new version when older than the specified number of seconds.
357       PreserveVersionIfIdle: -1s
358
359       # Managed collection properties. At creation time, if the client didn't
360       # provide the listed keys, they will be automatically populated following
361       # one of the following behaviors:
362       #
363       # * UUID of the user who owns the containing project.
364       #   responsible_person_uuid: {Function: original_owner, Protected: true}
365       #
366       # * Default concrete value.
367       #   foo_bar: {Value: baz, Protected: false}
368       #
369       # If Protected is true, only an admin user can modify its value.
370       ManagedProperties:
371         SAMPLE: {Function: original_owner, Protected: true}
372
373       # In "trust all content" mode, Workbench will redirect download
374       # requests to WebDAV preview link, even in the cases when
375       # WebDAV would have to expose XSS vulnerabilities in order to
376       # handle the redirect (see discussion on Services.WebDAV).
377       #
378       # This setting has no effect in the recommended configuration,
379       # where the WebDAV is configured to have a separate domain for
380       # every collection; in this case XSS protection is provided by
381       # browsers' same-origin policy.
382       #
383       # The default setting (false) is appropriate for a multi-user site.
384       TrustAllContent: false
385
386     Login:
387       # These settings are provided by your OAuth2 provider (e.g.,
388       # sso-provider).
389       ProviderAppSecret: ""
390       ProviderAppID: ""
391
392     Git:
393       # Git repositories must be readable by api server, or you won't be
394       # able to submit crunch jobs. To pass the test suites, put a clone
395       # of the arvados tree in {git_repositories_dir}/arvados.git or
396       # {git_repositories_dir}/arvados/.git
397       Repositories: /var/lib/arvados/git/repositories
398
399     TLS:
400       Certificate: ""
401       Key: ""
402       Insecure: false
403
404     Containers:
405       # List of supported Docker Registry image formats that compute nodes
406       # are able to use. ` + "`" + `arv keep docker` + "`" + ` will error out if a user tries
407       # to store an image with an unsupported format. Use an empty array
408       # to skip the compatibility check (and display a warning message to
409       # that effect).
410       #
411       # Example for sites running docker < 1.10: ["v1"]
412       # Example for sites running docker >= 1.10: ["v2"]
413       # Example for disabling check: []
414       SupportedDockerImageFormats: ["v2"]
415
416       # Include details about job reuse decisions in the server log. This
417       # causes additional database queries to run, so it should not be
418       # enabled unless you expect to examine the resulting logs for
419       # troubleshooting purposes.
420       LogReuseDecisions: false
421
422       # Default value for keep_cache_ram of a container's runtime_constraints.
423       DefaultKeepCacheRAM: 268435456
424
425       # Number of times a container can be unlocked before being
426       # automatically cancelled.
427       MaxDispatchAttempts: 5
428
429       # Default value for container_count_max for container requests.  This is the
430       # number of times Arvados will create a new container to satisfy a container
431       # request.  If a container is cancelled it will retry a new container if
432       # container_count < container_count_max on any container requests associated
433       # with the cancelled container.
434       MaxRetryAttempts: 3
435
436       # The maximum number of compute nodes that can be in use simultaneously
437       # If this limit is reduced, any existing nodes with slot number >= new limit
438       # will not be counted against the new limit. In other words, the new limit
439       # won't be strictly enforced until those nodes with higher slot numbers
440       # go down.
441       MaxComputeVMs: 64
442
443       # Preemptible instance support (e.g. AWS Spot Instances)
444       # When true, child containers will get created with the preemptible
445       # scheduling parameter parameter set.
446       UsePreemptibleInstances: false
447
448       # PEM encoded SSH key (RSA, DSA, or ECDSA) used by the
449       # (experimental) cloud dispatcher for executing containers on
450       # worker VMs. Begins with "-----BEGIN RSA PRIVATE KEY-----\n"
451       # and ends with "\n-----END RSA PRIVATE KEY-----\n".
452       DispatchPrivateKey: none
453
454       # Maximum time to wait for workers to come up before abandoning
455       # stale locks from a previous dispatch process.
456       StaleLockTimeout: 1m
457
458       Logging:
459         # When you run the db:delete_old_container_logs task, it will find
460         # containers that have been finished for at least this many seconds,
461         # and delete their stdout, stderr, arv-mount, crunch-run, and
462         # crunchstat logs from the logs table.
463         MaxAge: 720h
464
465         # These two settings control how frequently log events are flushed to the
466         # database.  Log lines are buffered until either crunch_log_bytes_per_event
467         # has been reached or crunch_log_seconds_between_events has elapsed since
468         # the last flush.
469         LogBytesPerEvent: 4096
470         LogSecondsBetweenEvents: 1
471
472         # The sample period for throttling logs.
473         LogThrottlePeriod: 60s
474
475         # Maximum number of bytes that job can log over crunch_log_throttle_period
476         # before being silenced until the end of the period.
477         LogThrottleBytes: 65536
478
479         # Maximum number of lines that job can log over crunch_log_throttle_period
480         # before being silenced until the end of the period.
481         LogThrottleLines: 1024
482
483         # Maximum bytes that may be logged by a single job.  Log bytes that are
484         # silenced by throttling are not counted against this total.
485         LimitLogBytesPerJob: 67108864
486
487         LogPartialLineThrottlePeriod: 5s
488
489         # Container logs are written to Keep and saved in a
490         # collection, which is updated periodically while the
491         # container runs.  This value sets the interval between
492         # collection updates.
493         LogUpdatePeriod: 30m
494
495         # The log collection is also updated when the specified amount of
496         # log data (given in bytes) is produced in less than one update
497         # period.
498         LogUpdateSize: 32MiB
499
500       SLURM:
501         Managed:
502           # Path to dns server configuration directory
503           # (e.g. /etc/unbound.d/conf.d). If false, do not write any config
504           # files or touch restart.txt (see below).
505           DNSServerConfDir: ""
506
507           # Template file for the dns server host snippets. See
508           # unbound.template in this directory for an example. If false, do
509           # not write any config files.
510           DNSServerConfTemplate: ""
511
512           # String to write to {dns_server_conf_dir}/restart.txt (with a
513           # trailing newline) after updating local data. If false, do not
514           # open or write the restart.txt file.
515           DNSServerReloadCommand: ""
516
517           # Command to run after each DNS update. Template variables will be
518           # substituted; see the "unbound" example below. If false, do not run
519           # a command.
520           DNSServerUpdateCommand: ""
521
522           ComputeNodeDomain: ""
523           ComputeNodeNameservers:
524             - 192.168.1.1
525
526           # Hostname to assign to a compute node when it sends a "ping" and the
527           # hostname in its Node record is nil.
528           # During bootstrapping, the "ping" script is expected to notice the
529           # hostname given in the ping response, and update its unix hostname
530           # accordingly.
531           # If false, leave the hostname alone (this is appropriate if your compute
532           # nodes' hostnames are already assigned by some other mechanism).
533           #
534           # One way or another, the hostnames of your node records should agree
535           # with your DNS records and your /etc/slurm-llnl/slurm.conf files.
536           #
537           # Example for compute0000, compute0001, ....:
538           # assign_node_hostname: compute%<slot_number>04d
539           # (See http://ruby-doc.org/core-2.2.2/Kernel.html#method-i-format for more.)
540           AssignNodeHostname: "compute%<slot_number>d"
541
542       JobsAPI:
543         # Enable the legacy Jobs API.  This value must be a string.
544         # 'auto' -- (default) enable the Jobs API only if it has been used before
545         #         (i.e., there are job records in the database)
546         # 'true' -- enable the Jobs API despite lack of existing records.
547         # 'false' -- disable the Jobs API despite presence of existing records.
548         Enable: 'auto'
549
550         # Git repositories must be readable by api server, or you won't be
551         # able to submit crunch jobs. To pass the test suites, put a clone
552         # of the arvados tree in {git_repositories_dir}/arvados.git or
553         # {git_repositories_dir}/arvados/.git
554         GitInternalDir: /var/lib/arvados/internal.git
555
556         # Docker image to be used when none found in runtime_constraints of a job
557         DefaultDockerImage: ""
558
559         # none or slurm_immediate
560         CrunchJobWrapper: none
561
562         # username, or false = do not set uid when running jobs.
563         CrunchJobUser: crunch
564
565         # The web service must be able to create/write this file, and
566         # crunch-job must be able to stat() it.
567         CrunchRefreshTrigger: /tmp/crunch_refresh_trigger
568
569         # Control job reuse behavior when two completed jobs match the
570         # search criteria and have different outputs.
571         #
572         # If true, in case of a conflict, reuse the earliest job (this is
573         # similar to container reuse behavior).
574         #
575         # If false, in case of a conflict, do not reuse any completed job,
576         # but do reuse an already-running job if available (this is the
577         # original job reuse behavior, and is still the default).
578         ReuseJobIfOutputsDiffer: false
579
580       CloudVMs:
581         # Enable the cloud scheduler (experimental).
582         Enable: false
583
584         # Name/number of port where workers' SSH services listen.
585         SSHPort: "22"
586
587         # Interval between queue polls.
588         PollInterval: 10s
589
590         # Shell command to execute on each worker to determine whether
591         # the worker is booted and ready to run containers. It should
592         # exit zero if the worker is ready.
593         BootProbeCommand: "docker ps -q"
594
595         # Minimum interval between consecutive probes to a single
596         # worker.
597         ProbeInterval: 10s
598
599         # Maximum probes per second, across all workers in a pool.
600         MaxProbesPerSecond: 10
601
602         # Time before repeating SIGTERM when killing a container.
603         TimeoutSignal: 5s
604
605         # Time to give up on SIGTERM and write off the worker.
606         TimeoutTERM: 2m
607
608         # Maximum create/destroy-instance operations per second (0 =
609         # unlimited).
610         MaxCloudOpsPerSecond: 0
611
612         # Interval between cloud provider syncs/updates ("list all
613         # instances").
614         SyncInterval: 1m
615
616         # Time to leave an idle worker running (in case new containers
617         # appear in the queue that it can run) before shutting it
618         # down.
619         TimeoutIdle: 1m
620
621         # Time to wait for a new worker to boot (i.e., pass
622         # BootProbeCommand) before giving up and shutting it down.
623         TimeoutBooting: 10m
624
625         # Maximum time a worker can stay alive with no successful
626         # probes before being automatically shut down.
627         TimeoutProbe: 10m
628
629         # Time after shutting down a worker to retry the
630         # shutdown/destroy operation.
631         TimeoutShutdown: 10s
632
633         # Worker VM image ID.
634         ImageID: ""
635
636         # Tags to add on all resources (VMs, NICs, disks) created by
637         # the container dispatcher. (Arvados's own tags --
638         # InstanceType, IdleBehavior, and InstanceSecret -- will also
639         # be added.)
640         ResourceTags:
641           SAMPLE: "tag value"
642
643         # Prefix for predefined tags used by Arvados (InstanceSetID,
644         # InstanceType, InstanceSecret, IdleBehavior). With the
645         # default value "Arvados", tags are "ArvadosInstanceSetID",
646         # "ArvadosInstanceSecret", etc.
647         #
648         # This should only be changed while no cloud resources are in
649         # use and the cloud dispatcher is not running. Otherwise,
650         # VMs/resources that were added using the old tag prefix will
651         # need to be detected and cleaned up manually.
652         TagKeyPrefix: Arvados
653
654         # Cloud driver: "azure" (Microsoft Azure) or "ec2" (Amazon AWS).
655         Driver: ec2
656
657         # Cloud-specific driver parameters.
658         DriverParameters:
659
660           # (ec2) Credentials.
661           AccessKeyID: ""
662           SecretAccessKey: ""
663
664           # (ec2) Instance configuration.
665           SecurityGroupIDs:
666             - ""
667           SubnetID: ""
668           Region: ""
669           EBSVolumeType: gp2
670           AdminUsername: debian
671
672           # (azure) Credentials.
673           SubscriptionID: ""
674           ClientID: ""
675           ClientSecret: ""
676           TenantID: ""
677
678           # (azure) Instance configuration.
679           CloudEnvironment: AzurePublicCloud
680           ResourceGroup: ""
681           Location: centralus
682           Network: ""
683           Subnet: ""
684           StorageAccount: ""
685           BlobContainer: ""
686           DeleteDanglingResourcesAfter: 20s
687           AdminUsername: arvados
688
689     InstanceTypes:
690
691       # Use the instance type name as the key (in place of "SAMPLE" in
692       # this sample entry).
693       SAMPLE:
694         # Cloud provider's instance type. Defaults to the configured type name.
695         ProviderType: ""
696         VCPUs: 1
697         RAM: 128MiB
698         IncludedScratch: 16GB
699         AddedScratch: 0
700         Price: 0.1
701         Preemptible: false
702
703     Mail:
704       MailchimpAPIKey: ""
705       MailchimpListID: ""
706       SendUserSetupNotificationEmail: true
707
708       # Bug/issue report notification to and from addresses
709       IssueReporterEmailFrom: "arvados@example.com"
710       IssueReporterEmailTo: "arvados@example.com"
711       SupportEmailAddress: "arvados@example.com"
712
713       # Generic issue email from
714       EmailFrom: "arvados@example.com"
715     RemoteClusters:
716       "*":
717         Host: ""
718         Proxy: false
719         Scheme: https
720         Insecure: false
721         ActivateUsers: false
722       SAMPLE:
723         # API endpoint host or host:port; default is {id}.arvadosapi.com
724         Host: sample.arvadosapi.com
725
726         # Perform a proxy request when a local client requests an
727         # object belonging to this remote.
728         Proxy: false
729
730         # Default "https". Can be set to "http" for testing.
731         Scheme: https
732
733         # Disable TLS verify. Can be set to true for testing.
734         Insecure: false
735
736         # When users present tokens issued by this remote cluster, and
737         # their accounts are active on the remote cluster, activate
738         # them on this cluster too.
739         ActivateUsers: false
740
741     Workbench:
742       # Workbench1 configs
743       Theme: default
744       ActivationContactLink: mailto:info@arvados.org
745       ArvadosDocsite: https://doc.arvados.org
746       ArvadosPublicDataDocURL: https://playground.arvados.org/projects/public
747       ShowUserAgreementInline: false
748       SecretKeyBase: ""
749
750       # Scratch directory used by the remote repository browsing
751       # feature. If it doesn't exist, it (and any missing parents) will be
752       # created using mkdir_p.
753       RepositoryCache: /var/www/arvados-workbench/current/tmp/git
754
755       # Below is a sample setting of user_profile_form_fields config parameter.
756       # This configuration parameter should be set to either false (to disable) or
757       # to a map as shown below.
758       # Configure the map of input fields to be displayed in the profile page
759       # using the attribute "key" for each of the input fields.
760       # This sample shows configuration with one required and one optional form fields.
761       # For each of these input fields:
762       #   You can specify "Type" as "text" or "select".
763       #   List the "Options" to be displayed for each of the "select" menu.
764       #   Set "Required" as "true" for any of these fields to make them required.
765       # If any of the required fields are missing in the user's profile, the user will be
766       # redirected to the profile page before they can access any Workbench features.
767       UserProfileFormFields: {}
768         # exampleTextValue:  # key that will be set in properties
769         #   Type: text  #
770         #   FormFieldTitle: ""
771         #   FormFieldDescription: ""
772         #   Required: true
773         #   Position: 1
774         # exampleOptionsValue:
775         #   Type: select
776         #   FormFieldTitle: ""
777         #   FormFieldDescription: ""
778         #   Required: true
779         #   Position: 1
780         #   Options:
781         #     red: {}
782         #     blue: {}
783         #     yellow: {}
784
785       # Use "UserProfileFormMessage to configure the message you want
786       # to display on the profile page.
787       UserProfileFormMessage: 'Welcome to Arvados. All <span style="color:red">required fields</span> must be completed before you can proceed.'
788
789       # Mimetypes of applications for which the view icon
790       # would be enabled in a collection's show page.
791       # It is sufficient to list only applications here.
792       # No need to list text and image types.
793       ApplicationMimetypesWithViewIcon:
794         cwl: {}
795         fasta: {}
796         go: {}
797         javascript: {}
798         json: {}
799         pdf: {}
800         python: {}
801         x-python: {}
802         r: {}
803         rtf: {}
804         sam: {}
805         x-sh: {}
806         vnd.realvnc.bed: {}
807         xml: {}
808         xsl: {}
809
810       # The maximum number of bytes to load in the log viewer
811       LogViewerMaxBytes: 1M
812
813       # When anonymous_user_token is configured, show public projects page
814       EnablePublicProjectsPage: true
815
816       # By default, disable the "Getting Started" popup which is specific to Arvados playground
817       EnableGettingStartedPopup: false
818
819       # Ask Arvados API server to compress its response payloads.
820       APIResponseCompression: true
821
822       # Timeouts for API requests.
823       APIClientConnectTimeout: 2m
824       APIClientReceiveTimeout: 5m
825
826       # Maximum number of historic log records of a running job to fetch
827       # and display in the Log tab, while subscribing to web sockets.
828       RunningJobLogRecordsToFetch: 2000
829
830       # In systems with many shared projects, loading of dashboard and topnav
831       # cab be slow due to collections indexing; use the following parameters
832       # to suppress these properties
833       ShowRecentCollectionsOnDashboard: true
834       ShowUserNotifications: true
835
836       # Enable/disable "multi-site search" in top nav ("true"/"false"), or
837       # a link to the multi-site search page on a "home" Workbench site.
838       #
839       # Example:
840       #   https://workbench.qr1hi.arvadosapi.com/collections/multisite
841       MultiSiteSearch: ""
842
843       # Should workbench allow management of local git repositories? Set to false if
844       # the jobs api is disabled and there are no local git repositories.
845       Repositories: true
846
847       SiteName: Arvados Workbench
848       ProfilingEnabled: false
849
850       # This is related to obsolete Google OpenID 1.0 login
851       # but some workbench stuff still expects it to be set.
852       DefaultOpenIdPrefix: "https://www.google.com/accounts/o8/id"
853
854       # Workbench2 configs
855       VocabularyURL: ""
856       FileViewersConfigURL: ""
857
858     # Use experimental controller code (see https://dev.arvados.org/issues/14287)
859     EnableBetaController14287: false
860 `)