17962: Add test that uuid of project is printed on stdout
[arvados.git] / doc / user / cwl / cwl-extensions.html.textile.liquid
1 ---
2 layout: default
3 navsection: userguide
4 title: Arvados CWL Extensions
5 ...
6 {% comment %}
7 Copyright (C) The Arvados Authors. All rights reserved.
8
9 SPDX-License-Identifier: CC-BY-SA-3.0
10 {% endcomment %}
11
12 Arvados provides several extensions to CWL for workflow optimization, site-specific configuration, and to enable access the Arvados API.
13
14 To use Arvados CWL extensions, add the following @$namespaces@ section at the top of your CWL file:
15
16 {% codeblock as yaml %}
17 $namespaces:
18   arv: "http://arvados.org/cwl#"
19   cwltool: "http://commonwl.org/cwltool#"
20 {% endcodeblock %}
21
22 For portability, most Arvados extensions should go into the @hints@ section of your CWL file.  This makes it possible for your workflows to run other CWL runners that do not recognize Arvados hints.  The difference between @hints@ and @requirements@ is that @hints@ are optional features that can be ignored by other runners and still produce the same output, whereas @requirements@ will fail the workflow if they cannot be fulfilled.  For example, @arv:IntermediateOutput@ should go in @hints@ as it will have no effect on non-Arvados platforms, however if your workflow explicitly accesses the Arvados API and will fail without it, you should put @arv:APIRequirement@ in @requirements@.
23
24 {% codeblock as yaml %}
25 hints:
26   arv:RunInSingleContainer: {}
27
28   arv:RuntimeConstraints:
29     keep_cache: 123456
30     outputDirType: keep_output_dir
31
32   arv:PartitionRequirement:
33     partition: dev_partition
34
35   arv:APIRequirement: {}
36
37   arv:IntermediateOutput:
38     outputTTL: 3600
39
40   cwltool:Secrets:
41     secrets: [input1, input2]
42
43   arv:WorkflowRunnerResources:
44     ramMin: 2048
45     coresMin: 2
46     keep_cache: 512
47
48   arv:ClusterTarget:
49     cluster_id: clsr1
50     project_uuid: clsr1-j7d0g-qxc4jcji7n4lafx
51
52   arv:OutputStorageClass:
53     intermediateStorageClass: fast_storage
54     finalStorageClass: robust_storage
55
56   arv:ProcessProperties:
57     processProperties:
58       property1: value1
59       property2: $(inputs.value2)
60 {% endcodeblock %}
61
62 h2(#RunInSingleContainer). arv:RunInSingleContainer
63
64 Apply this to a workflow step that runs a subworkflow.  Indicates that all the steps of the subworkflow should run together in a single container and not be scheduled separately.  If you have a sequence of short-running steps (less than 1-2 minutes each) this enables you to avoid scheduling and data transfer overhead by running all the steps together at once.  To use this feature, @cwltool@ must be installed in the container image.
65
66 h2. arv:RuntimeConstraints
67
68 Set Arvados-specific runtime hints.
69
70 table(table table-bordered table-condensed).
71 |_. Field |_. Type |_. Description |
72 |keep_cache|int|Size of file data buffer for Keep mount in MiB. Default is 256 MiB. Increase this to reduce cache thrashing in situations such as accessing multiple large (64+ MiB) files at the same time, or performing random access on a large file.|
73 |outputDirType|enum|Preferred backing store for output staging.  If not specified, the system may choose which one to use.  One of *local_output_dir* or *keep_output_dir*|
74
75 *local_output_dir*: Use regular file system local to the compute node. There must be sufficient local scratch space to store entire output; specify this with @outdirMin@ of @ResourceRequirement@.  Files are batch uploaded to Keep when the process completes.  Most compatible, but upload step can be time consuming for very large files.
76
77 *keep_output_dir*: Use writable Keep mount.  Files are streamed to Keep as they are written.  Does not consume local scratch space, but does consume RAM for output buffers (up to 192 MiB per file simultaneously open for writing.)  Best suited to processes which produce sequential output of large files (non-sequential writes may produced fragmented file manifests).  Supports regular files and directories, does not support special files such as symlinks, hard links, named pipes, named sockets, or device nodes.|
78
79 h2. arv:PartitionRequirement
80
81 Select preferred compute partitions on which to run jobs.
82
83 table(table table-bordered table-condensed).
84 |_. Field |_. Type |_. Description |
85 |partition|string or array of strings||
86
87 h2(#APIRequirement). arv:APIRequirement
88
89 For CWL v1.1 scripts, if a step requires network access but not specifically access to the Arvados API server, prefer the standard feature "NetworkAccess":https://www.commonwl.org/v1.1/CommandLineTool.html#NetworkAccess .  In the future, these may be differentiated by whether ARVADOS_API_HOST and ARVADOS_API_TOKEN is injected into the container or not.
90
91 Indicates that process wants to access to the Arvados API.  Will be granted network access and have @ARVADOS_API_HOST@ and @ARVADOS_API_TOKEN@ set in the environment.  Tools which rely on the Arvados API being present should put @arv:APIRequirement@ in the @requirements@ section of the tool (rather than @hints@) to indicate that that it is not portable to non-Arvados CWL runners.
92
93 Use @arv:APIRequirement@ in @hints@ to enable general (non-Arvados-specific) network access for a tool.
94
95 h2. arv:IntermediateOutput
96
97 Specify desired handling of intermediate output collections.
98
99 table(table table-bordered table-condensed).
100 |_. Field |_. Type |_. Description |
101 |outputTTL|int|If the value is greater than zero, consider intermediate output collections to be temporary and should be automatically trashed. Temporary collections will be trashed @outputTTL@ seconds after creation.  A value of zero means intermediate output should be retained indefinitely (this is the default behavior).
102 Note: arvados-cwl-runner currently does not take workflow dependencies into account when setting the TTL on an intermediate output collection. If the TTL is too short, it is possible for a collection to be trashed before downstream steps that consume it are started.  The recommended minimum value for TTL is the expected duration of the entire workflow.|
103
104 h2. cwltool:Secrets
105
106 Indicate that one or more input parameters are "secret".  Must be applied at the top level Workflow.  Secret parameters are not stored in keep, are hidden from logs and API responses, and are wiped from the database after the workflow completes.
107
108 *Note: currently, workflows with secrets must be submitted on the command line using @arvados-cwl-runner@.  Workflows with secrets submitted through Workbench will not properly obscure the secret inputs.*
109
110 table(table table-bordered table-condensed).
111 |_. Field |_. Type |_. Description |
112 |secrets|array<string>|Input parameters which are considered "secret".  Must be strings.|
113
114 h2. arv:WorkflowRunnerResources
115
116 Specify resource requirements for the workflow runner process (arvados-cwl-runner) that manages a workflow run.  Must be applied to the top level workflow.  Will also be set implicitly when using @--submit-runner-ram@ on the command line along with @--create-workflow@ or @--update-workflow@.  Use this to adjust the runner's allocation if the workflow runner is getting "out of memory" exceptions or being killed by the out-of-memory (OOM) killer.
117
118 table(table table-bordered table-condensed).
119 |_. Field |_. Type |_. Description |
120 |ramMin|int|RAM, in mebibytes, to reserve for the arvados-cwl-runner process. Default 1 GiB|
121 |coresMin|int|Number of cores to reserve to the arvados-cwl-runner process. Default 1 core.|
122 |keep_cache|int|Size of collection metadata cache for the workflow runner, in MiB.  Default 256 MiB.  Will be added on to the RAM request when determining node size to request.|
123
124 h2(#clustertarget). arv:ClusterTarget
125
126 Specify which Arvados cluster should execute a container or subworkflow, and the parent project for the container request.
127
128 table(table table-bordered table-condensed).
129 |_. Field |_. Type |_. Description |
130 |cluster_id|string|The five-character alphanumeric cluster id (uuid prefix) where a container or subworkflow will execute.  May be an expression.|
131 |project_uuid|string|The uuid of the project which will own container request and output of the container.  May be an expression.|
132
133 h2(#OutputStorageClass). arv:OutputStorageClass
134
135 Specify the "storage class":{{site.baseurl}}/user/topics/storage-classes.html to use for intermediate and final outputs.
136
137 table(table table-bordered table-condensed).
138 |_. Field |_. Type |_. Description |
139 |intermediateStorageClass|string or array of strings|The storage class for output of intermediate steps.  For example, faster "hot" storage.|
140 |finalStorageClass_uuid|string or array of strings|The storage class for the final output.  |
141
142 h2(#ProcessProperties). arv:ProcessProperties
143
144 Specify extra "properties":{{site.baseurl}}/api/methods.html#subpropertyfilters that will be set on container requests created by the workflow.  May be set on a Workflow or a CommandLineTool.  Setting custom properties on a container request simplifies queries to find the workflow run later on.
145
146 table(table table-bordered table-condensed).
147 |_. Field |_. Type |_. Description |
148 |processProperties|key-value map, or list of objects with the fields {propertyName, propertyValue}|The properties that will be set on the container request.  May include expressions that reference `$(inputs)` of the current workflow or tool.|
149
150 h2. arv:dockerCollectionPDH
151
152 This is an optional extension field appearing on the standard @DockerRequirement@.  It specifies the portable data hash of the Arvados collection containing the Docker image.  If present, it takes precedence over @dockerPull@ or @dockerImageId@.
153
154 <pre>
155 requirements:
156   DockerRequirement:
157     dockerPull: "debian:10"
158     arv:dockerCollectionPDH: "feaf1fc916103d7cdab6489e1f8c3a2b+174"
159 </pre>
160
161 h1. Deprecated extensions
162
163 The following extensions are deprecated because equivalent features are part of the CWL v1.1 standard.
164
165 {% codeblock as yaml %}
166 hints:
167   cwltool:LoadListingRequirement:
168     loadListing: shallow_listing
169   arv:ReuseRequirement:
170     enableReuse: false
171   cwltool:TimeLimit:
172     timelimit: 14400
173 {% endcodeblock %}
174
175 h2. cwltool:LoadListingRequirement
176
177 For CWL v1.1 scripts, this is deprecated in favor of "loadListing":https://www.commonwl.org/v1.1/CommandLineTool.html#CommandInputParameter or "LoadListingRequirement":https://www.commonwl.org/v1.1/CommandLineTool.html#LoadListingRequirement
178
179 In CWL v1.0 documents, the default behavior for Directory objects is to recursively expand the @listing@ for access by parameter references an expressions.  For directory trees containing many files, this can be expensive in both time and memory usage.  Use @cwltool:LoadListingRequirement@ to change the behavior for expansion of directory listings in the workflow runner.
180
181 table(table table-bordered table-condensed).
182 |_. Field |_. Type |_. Description |
183 |loadListing|string|One of @no_listing@, @shallow_listing@, or @deep_listing@|
184
185 *no_listing*: Do not expand directory listing at all.  The @listing@ field on the Directory object will be undefined.
186
187 *shallow_listing*: Only expand the first level of directory listing.  The @listing@ field on the toplevel Directory object will contain the directory contents, however @listing@ will not be defined on subdirectories.
188
189 *deep_listing*: Recursively expand all levels of directory listing.  The @listing@ field will be provided on the toplevel object and all subdirectories.
190
191 h2. arv:ReuseRequirement
192
193 For CWL v1.1 scripts, this is deprecated in favor of "WorkReuse":https://www.commonwl.org/v1.1/CommandLineTool.html#WorkReuse .
194
195 Enable/disable work reuse for current process.  Default true (work reuse enabled).
196
197 table(table table-bordered table-condensed).
198 |_. Field |_. Type |_. Description |
199 |enableReuse|boolean|Enable/disable work reuse for current process.  Default true (work reuse enabled).|
200
201 h2. cwltool:TimeLimit
202
203 For CWL v1.1 scripts, this is deprecated in favor of "ToolTimeLimit":https://www.commonwl.org/v1.1/CommandLineTool.html#ToolTimeLimit
204
205 Set an upper limit on the execution time of a CommandLineTool or ExpressionTool.  A tool execution which exceeds the time limit may be preemptively terminated and considered failed.  May also be used by batch systems to make scheduling decisions.
206
207 table(table table-bordered table-condensed).
208 |_. Field |_. Type |_. Description |
209 |timelimit|int|Execution time limit in seconds. If set to zero, no limit is enforced.|