b58e7c9b15876bef2a520c3502f0c8cd41b6f1ca
[arvados.git] / doc / user / tutorial-job1.textile
1 ---
2 layout: default
3 navsection: userguide
4 title: "Tutorial 1: Introduction to Keep and your first Crunch job"
5 navorder: 20
6 ---
7
8 h1. Tutorial 1: Introduction to Keep and your first crunch job
9
10 This tutorial introduces the concepts and use of the Arvados Keep storage and Crunch job system using the @arv@ command line tool and Arvados Workbench.
11
12 *This tutorial assumes that you are logged into an Arvados VM instance, as described in "accessing arvados over ssh.":ssh-access.html#login*
13
14 h2. Checking your environment
15
16 Check that you are able to access the Arvados API server using the following command:
17
18 <pre>
19 $ arv user current
20 </pre>
21
22 If you receive the message @ARVADOS_API_HOST and ARVADOS_API_TOKEN need to be defined as environment variables@, follow the instructions for "getting an API token,":api-tokens.html then return to this document.
23
24 When @arv user current@ is able to access the API server, it will print out the unique identifier associated with your account.  Here is an example (you will receive a different identifier):
25
26 <pre>
27 qr1hi-xioed-9z2p3pn12yqdaem
28 </pre>
29
30 This unique identifier represents your identity in the Arvados system and is similar to the concept of a pointer or a foreign key.  You may de-reference (get the contents of) any identifier returned by the "arv" command using the @-h@ command line option.  For example:
31
32 <pre>
33 $ arv -h user current
34 {
35  "href":"https://qr1hi.arvadosapi.com/arvados/v1/users/qr1hi-xioed-9z2p3pn12yqdaem",
36  "kind":"arvados#user",
37  "etag":"8u0xwb9f3otb2xx9hto4wyo03",
38  "uuid":"qr1hi-tpzed-92d3kxnimy3d4e8",
39  "owner_uuid":"qr1hi-tpqed-23iddeohxta2r59",
40  "created_at":"2013-12-02T17:05:47Z",
41  "modified_by_client_uuid":"qr1hi-xxfg8-owxa2oa2s33jyej",
42  "modified_by_user_uuid":"qr1hi-tpqed-23iddeohxta2r59",
43  "modified_at":"2013-12-02T17:07:08Z",
44  "updated_at":"2013-12-05T19:51:08Z",
45  "email":"you@example.com",
46  "full_name":"Example User",
47  "first_name":"Example",
48  "last_name":"User",
49  "identity_url":"https://www.google.com/accounts/o8/id?id=AItOawnhlZr-pQ_Ic2f2W22XaO02oL3avJ322k1",
50  "is_active": true,
51  "is_admin": false,
52  "prefs":{}
53 }
54 </pre>
55
56 h2. Managing data in Arvados using Keep
57
58 The Arvados distributed file system is called *Keep*.  Keep is a content-addressable file system.  This means that files are managed using special unique identifiers derived from the _contents_ of the file, rather than human-assigned file names (specifically, the md5 hash).  This has a number of advantages:
59 * Files can be stored and replicated across a cluster of servers without requiring a central name server.
60 * Systematic validation of data integrity by both server and client because the checksum is built into the identifier.
61 * Minimizes data duplication (two files with the same contents will result in the same identifier, and will not be stored twice.)
62 * Avoids data race conditions (an identifier always points to the same data.)
63
64 In Keep, information is stored in *data blocks*.  Data blocks are normally between 1 byte and 64 megabytes in size.  If a file exceeds the maximum size of a single data block, the file will be split across multiple data blocks until the entire file can be stored.  These data blocks may be stored and replicated across multiple disks, servers, or clusters.  Each data block has its own identifier for the contents of that specific data block.
65
66 In order to reassemble the file, Keep stores a *collection* data block which lists in sequence the data blocks that make up the original file.  A collection data block may store the information for multiple files, including a directory structure.
67
68 In this example we will use @33a9f3842b01ea3fdf27cc582f5ea2af@ which is already available on {{ site.arvados_api_host }}.  First let us examine the contents of this collection using @arv-get@:
69
70 <pre>
71 $ arv-get 33a9f3842b01ea3fdf27cc582f5ea2af
72 . 204e43b8a1185621ca55a94839582e6f+67108864+K@qr1hi b9677abbac956bd3e86b1deb28dfac03+67108864+K@qr1hi fc15aff2a762b13f521baf042140acec+67108864+K@qr1hi 323d2a3ce20370c4ca1d3462a344f8fd+25885655+K@qr1hi 0:227212247:var-GS000016015-ASM.tsv.bz2
73 </pre>
74
75 @arv-get@ fetches the contents of the locator @33a9f3842b01ea3fdf27cc582f5ea2af@.  This is a locator for a collection data block, so it fetches the contents of the collection.  In this example, this collection consists of a single file @var-GS000016015-ASM.tsv.bz2@ which is 227212247 bytes long, and is stored using four sequential data blocks, @204e43b8a1185621ca55a94839582e6f+67108864+K@qr1hi@ , @b9677abbac956bd3e86b1deb28dfac03+67108864+K@qr1hi@ , @fc15aff2a762b13f521baf042140acec+67108864+K@qr1hi@ , @323d2a3ce20370c4ca1d3462a344f8fd+25885655+K@qr1hi@ .
76
77 Let's use @arv-get@ to download the first datablock:
78
79 <pre>
80  $ arv-get 204e43b8a1185621ca55a94839582e6f+67108864+K@qr1hi > block1
81 </pre>
82
83 Let's look at the size and compute the md5 hash of @block1@:
84
85 <pre>
86  $ ls -l block1
87  -rw-r--r-- 1 you group 67108864 Dec  9 20:14 block1
88  $ md5sum block1
89  204e43b8a1185621ca55a94839582e6f  block1
90 </pre>
91
92 Notice that the block identifer @204e43b8a1185621ca55a94839582e6f+67108864+K@qr1hi@ consists of:
93 * the md5 hash @204e43b8a1185621ca55a94839582e6f@
94 * a size hint @67108864@
95 * a location hint @K@qr1hi@
96
97 In fact, _only_ the md5 hash is required to find the block.
98
99 Next, let's use @arv-get@ to download and reassemble @var-GS000016015-ASM.tsv.bz2@ using the following command:
100
101 <pre>
102  $ arv-get 33a9f3842b01ea3fdf27cc582f5ea2af/var-GS000016015-ASM.tsv.bz2 .
103 </pre>
104
105 This downloads the file @var-GS000016015-ASM.tsv.bz2@ described by collection @33a9f3842b01ea3fdf27cc582f5ea2af@ from Keep and places it into the local directory.  Now that we have the file, we can compute the md5 hash of the complete file:
106
107 <pre>
108  $ md5sum var-GS000016015-ASM.tsv.bz2 
109  44b8ae3fde7a8a88d2f7ebd237625b4f  var-GS000016015-ASM.tsv.bz2
110 </pre>
111
112 h2. Submitting your first job
113
114 In the previous section, we downloaded a file from Keep and computed the md5 hash of the complete file.  While straightforward, there are several obvious drawbacks to this approach:
115 * Large files require significant time to download.
116 * Very large files may exceed the scratch space of the local disk.
117 * We are only able to use the local CPU to process the file.
118
119 The Arvados "crunch" framework is designed to support processing very large data batches (gigabytes to terabytes) efficiently, based on the following techniques:
120 * Computation is preferentially sent to nodes that store the files locally, to avoid network and disk bottlenecks in sending files around.
121 * Computation acts on file streams, avoiding the need to store the entire file contents in one place.
122 * Computation can be distributed among many nodes in a cluster by acting on many files or parts of a single file in parallel.
123
124 For your first job, you will run the "hash" crunch script using the Arvados system.  The "hash" script computes the md5 hash of each file in a collection.
125
126 Crunch jobs are described using JSON objects.  For example:
127
128 <pre>
129 $ read -d $'\000' the_job <<EOF
130 {
131  "script": "hash",
132  "script_version": "arvados:master",
133  "script_parameters":
134  {
135   "input": "33a9f3842b01ea3fdf27cc582f5ea2af"
136  }
137 }
138 EOF
139 </pre>
140
141 * @read@ is a bash builtin that stores the first line of standard input into the local shell variable @the_job@
142 * @-d $'\000'@ changes the line delimiter character from newline to null so that the entire input will be considered a single line.
143 * @"script"@ specifies the name of the script to run.  The script is searched for in the "crunch_scripts/" subdirectory of the @git@ checkout specified by @"script_version"@.
144 * @"script_version"@ specifies the version of the script that you wish to run.  This can be in the form of an explicit @git@ revision hash, or in the form "repository:branch" (in which case it will take the HEAD of the specified branch).  Arvados logs the script version that was used in the run, enabling you to go back and re-run any past job with the guarantee that the exact same code will be used as was used in the previous run.  You can access a list of available @git@ repositories on the Arvados workbench through _Access %(rarr)&rarr;% Repositories_.
145 * @"script_parameters"@ are provided to the script.  In this case, the input is the locator for the collection that we inspected in the previous section.
146
147 Use the @arv@ command to actually submit the job.  It should print out a JSON object which describes the newly created job:
148
149 <pre>
150 $ arv -h job create --job "$the_job"
151 {
152  "href":"https://qr1hi.arvadosapi.com/arvados/v1/jobs/qr1hi-8i9sb-j5dr6107mxzp3no",
153  "kind":"arvados#job",
154  "etag":"aulvmdxezwxo4zrw15gz1v7x3",
155  "uuid":"qr1hi-8i9sb-j5dr6107mxzp3no",
156  "owner_uuid":"qr1hi-tpzed-9zdpkpni2yddge6",
157  "created_at":"2013-12-10T17:07:08Z",
158  "modified_by_client_uuid":"qr1hi-ozdt8-obw7foaks3qjyej",
159  "modified_by_user_uuid":"qr1hi-tpzed-9zdpkpni2yddge6",
160  "modified_at":"2013-12-10T17:07:08Z",
161  "updated_at":"2013-12-10T17:07:08Z",
162  "submit_id":null,
163  "priority":null,
164  "script":"hash",
165  "script_parameters":{
166   "input":"33a9f3842b01ea3fdf27cc582f5ea2af"
167  },
168  "script_version":"d3b10812b443dcf0189c1c432483bf7ac06507fe",
169  "cancelled_at":null,
170  "cancelled_by_client_uuid":null,
171  "cancelled_by_user_uuid":null,
172  "started_at":null,
173  "finished_at":null,
174  "output":null,
175  "success":null,
176  "running":null,
177  "is_locked_by_uuid":null,
178  "log":null,
179  "runtime_constraints":{},
180  "tasks_summary":{},
181  "dependencies":[
182   "33a9f3842b01ea3fdf27cc582f5ea2af"
183  ],
184  "log_stream_href":"https://qr1hi.arvadosapi.com/arvados/v1/jobs/qr1hi-8i9sb-j5dr6107mxzp3no/log_tail_follow"
185 }
186 </pre>
187
188 The job is new queued and will start running as soon as it reaches the front of the queue.  Fields to pay attention to include:
189
190  * @"uuid"@ is the unique identifier for this specific job
191  * @"script_version"@ is the actual revision of the script used.  This is useful if the version was described using the "repository:branch" format.
192  * @"log_stream_href"@ provides a means to monitor job progress, described below.
193
194 h3. Monitor job progress
195
196 Go to Workbench, and use the menu to navigate to _Compute %(rarr)&rarr;% Jobs_. The job you submitted can be identified by the *uuid* row, which will match the "uuid" field of the JSON object returned when the job was created.
197
198 Hit "Refresh" until it finishes.  Successful completion is indicated by a green check mark in the *status* column.
199
200 You can watch the log messages while the job runs using @curl@:
201
202 <pre>
203 $ curl -s -H "Authorization: OAuth2 $ARVADOS_API_TOKEN" _value_of_log_stream_href_from_arv_job_create_
204 </pre>
205
206 * @-s@ suppress status messages from @curl@ itself
207 * @-H@ addes a required HTTP header with your Arvados API token
208
209 This will run until the job finishes or is @curl@ is canceled with control-C.
210
211 h3. Inspect the job output
212
213 You can access the job output under the *output* column of the _Compute %(rarr)&rarr;% Jobs_ page.  Alternately, you can use the command line to access a JSON object describing the output:
214
215 <pre>
216 $ arv -h job get --uuid _value_of_uuid_from_arv_job_create_
217 {
218  "href":"https://qr1hi.arvadosapi.com/arvados/v1/jobs/qr1hi-8i9sb-zs6d9pxkr0vk175",
219  "kind":"arvados#job",
220  "etag":"eoe99lw7rnqxo7j29fh53hz",
221  "uuid":"qr1hi-8i9sb-zs6d9pxkr0vk175",
222  "owner_uuid":"qr1hi-tpzed-9zdpkpni2yddge6",
223  "created_at":"2013-12-10T17:23:26Z",
224  "modified_by_client_uuid":null,
225  "modified_by_user_uuid":"qr1hi-tpzed-9zdpkpni2yddge6",
226  "modified_at":"2013-12-10T17:23:45Z",
227  "updated_at":"2013-12-10T17:23:45Z",
228  "submit_id":null,
229  "priority":null,
230  "script":"hash",
231  "script_parameters":{
232   "input":"33a9f3842b01ea3fdf27cc582f5ea2af"
233  },
234  "script_version":"0a8c7c6fce7a9667ee42c1984a845100f51906a2",
235  "cancelled_at":null,
236  "cancelled_by_client_uuid":null,
237  "cancelled_by_user_uuid":null,
238  "started_at":"2013-12-10T17:23:29Z",
239  "finished_at":"2013-12-10T17:23:44Z",
240  "output":"880b55fb4470b148a447ff38cacdd952+54+K@qr1hi",
241  "success":true,
242  "running":false,
243  "is_locked_by_uuid":"qr1hi-tpzed-9zdpkpni2yddge6",
244  "log":"f760f3dd3105103e058a043310f7e72b+3028+K@qr1hi",
245  "runtime_constraints":{},
246  "tasks_summary":{
247   "done":2,
248   "running":0,
249   "failed":0,
250   "todo":0
251  },
252  "dependencies":[
253   "33a9f3842b01ea3fdf27cc582f5ea2af"
254  ],
255  "log_stream_href":null
256 }
257 </pre>
258
259 * @"output"@ is the unique identifier for this specific job's output.  This is a Keep collection.
260
261 List the files in the collection:
262
263 <pre>
264 $ arv-get _value_of_output_from_arv_job_get_
265 . 78b268d1e03d87f8270bdee9d5d427c5+61 0:61:md5sum.txt
266 </pre>
267
268 This collection consists of the md5sum.txt file.  Use @arv-get@ to show the contents of the md5sum.txt file:
269
270 <pre>
271 $ arv-get 880b55fb4470b148a447ff38cacdd952+54+K@qr1hi/md5sum.txt
272 44b8ae3fde7a8a88d2f7ebd237625b4f var-GS000016015-ASM.tsv.bz2
273 </pre>
274
275 This md5 hash value should match the md5 hash which we computed by hand.
276
277 This concludes the first tutorial.  In the next tutorial, "we will inspect how the hash script works.":tutorial-firstscript.html