4ae69b677ec3a717fca714ec3326081e5f5d791c
[arvados.git] / doc / user / tutorials / wgs-tutorial.html.textile.liquid
1 ---
2 layout: default
3 navsection: userguide
4 title: "Processing Whole Genome Sequences"
5 ...
6 {% comment %}
7 Copyright (C) The Arvados Authors. All rights reserved.
8
9 SPDX-License-Identifier: CC-BY-SA-3.0
10 {% endcomment %}
11
12 <div style="max-width: 600px; margin-left: 30px">
13
14 h2. 1. A Brief Introduction to Arvados
15
16 Arvados is an open source platform for managing, processing, and sharing genomic and other large scientific and biomedical data.   Arvados helps bioinformaticians run and scale compute-intensive workflows.  By running their workflows in Arvados, they can scale their calculations dynamically in the cloud, track methods and datasets, and easily re-run workflow steps or whole workflows when necessary. This tutorial walkthrough shows examples of running a “real-world” workflow and how to navigate and use the Arvados working environment.
17
18 When you log into your account on the Arvados playground ("https://playground.arvados.org":https://playground.arvados.org), you see the Arvados Workbench which is the web application that allows users to interactively access Arvados functionality.  For this tutorial, we will largely focus on using the Arvados Workbench since that is an easy way to get started using Arvados.  You can also access Arvados via your command line and/or using the available REST API and SDKs.   If you are interested, this tutorial walkthrough will have an optional component that will cover using the command line.
19
20 By using the Arvados Workbench or using the command line, you can submit your workflows to run on your Arvados cluster.  An Arvados cluster can be hosted in the cloud as well as on premise and on hybrid clusters. The Arvados playground cluster is currently hosted in the cloud.
21
22 You can also use the workbench or command line to access data in the Arvados storage system called Keep which is designed for managing and storing large collections of files on your Arvados cluster. The running of workflows is managed by Crunch. Crunch is designed to maintain data provenance and workflow reproducibility. Crunch automatically tracks data inputs and outputs through Keep and executes workflow processes in Docker containers. In a cloud environment, Crunch optimizes costs by scaling compute on demand.
23
24 _Ways to Learn More About Arvados_
25 * To learn more in general about Arvados, please visit the Arvados website here: "https://arvados.org/":https://arvados.org/
26 * For a deeper dive into Arvados, the Arvados documentation can be found here: "https://doc.arvados.org/":https://doc.arvados.org/
27 * For help on Arvados, visit the Gitter channel here: "https://gitter.im/arvados/community":https://gitter.im/arvados/community
28
29
30 h2. 2. A Brief Introduction to the Whole Genome Sequencing (WGS) Processing Tutorial
31
32 The workflow used in this tutorial walkthrough serves as a “real-world” workflow example that takes in WGS data (paired FASTQs) and returns GVCFs and accompanying variant reports.  In this walkthrough, we will be processing approximately 10 public genomes made available by the Personal Genome Project.  This set of data is from the PGP-UK ("https://www.personalgenomes.org.uk/":https://www.personalgenomes.org.uk/).
33
34 The overall steps in the workflow include:
35 * Check of FASTQ quality using FastQC ("https://www.bioinformatics.babraham.ac.uk/projects/fastqc/":https://www.bioinformatics.babraham.ac.uk/projects/fastqc/)
36 * Local alignment using BWA-MEM ("http://bio-bwa.sourceforge.net/bwa.shtml":http://bio-bwa.sourceforge.net/bwa.shtml)
37 * Variant calling in parallel using GATK Haplotype Caller ("https://gatk.broadinstitute.org/hc/en-us":https://gatk.broadinstitute.org/hc/en-us)
38 * Generation of an HTML report comparing variants against ClinVar archive ("https://www.ncbi.nlm.nih.gov/clinvar/":https://www.ncbi.nlm.nih.gov/clinvar/)
39
40 The workflow is written in "Common Workflow Language":https://commonwl.org (CWL), the primary way to develop and run workflows for Arvados.
41
42 Below are diagrams of the main workflow which runs the processing across multiple sets of fastq and the main subworkflow (run multiple times in parallel by the main workflow) which processes a single set of FASTQs.  This main subworkflow also calls other additional subworkflows including subworkflows that perform variant calling using GATK in parallel by regions and generate the ClinVar HTML variant report.  These CWL diagrams (generated using "CWL viewer":https://view.commonwl.org) will give you a basic idea of the flow, input/outputs and workflow steps involved in the tutorial example.  However, if you aren’t used to looking at CWL workflow diagrams and/or aren’t particularly interested in this level of detail, do not worry.  You will not need to know these particulars to run the workflow.
43
44 !{width: 100%}{{ site.baseurl }}/images/wgs-tutorial/image2.png!
45
46 _*Figure 1*:  Main CWL Workflow for WGS Processing Tutorial.  This runs the same WGS subworkflow over multiple pairs FASTQs files._
47
48 !{width: 100%}{{ site.baseurl }}/images/wgs-tutorial/image3.png!
49
50 _*Figure 2*:  Main subworkflow for the WGS Processing Tutorial.  This subworkflow does alignment, reduplication, variant calling and reporting._
51
52 _Ways to Learn More About CWL_
53
54 * The CWL website has lots of good content including the CWL User Guide: "https://www.commonwl.org/":https://www.commonwl.org/
55 * Commonly Asked Questions and Answers can be found in the Discourse Group, here: "https://cwl.discourse.group/":https://cwl.discourse.group/
56 * For help on CWL, visit the Gitter channel here: "https://gitter.im/common-workflow-language/common-workflow-language":https://gitter.im/common-workflow-language/common-workflow-language
57 * Repository of CWL CommandLineTool descriptions for commons tools in bioinformatics:
58 "https://github.com/common-workflow-library/bio-cwl-tools/":https://github.com/common-workflow-library/bio-cwl-tools/
59
60
61 h2. 3. Setting Up to Run the WGS Processing Workflow
62
63 Let’s get a little familiar with the Arvados Workbench while also setting up to run the WGS processing tutorial workflow.  Logging into the workbench will present you with the Dashboard. This gives a summary of your projects and recent activity in your Arvados instance, i.e. the Arvados Playground.  The Dashboard will only give you information about projects and activities that you have permissions to view and/or access.  Other users' private or restricted projects and activities will not be visible by design.
64
65 h3. 3a. Setting up a New Project
66
67 Projects in Arvados help you organize and track your work - and can contain data, workflow code, details about workflow runs, and results.  Let’s begin by setting up a new project for the work you will be doing in this walkthrough.
68
69 To create a new project, go to the Projects dropdown menu and select “Add a New Project”.
70
71 !{width: 100%}{{ site.baseurl }}/images/wgs-tutorial/image4.png!
72
73 _*Figure 3*:  Screenshot of adding a new project using Arvados Workbench._
74
75
76 Let’s name your project “WGS Processing Tutorial”. You can also add a description of your project using the  Edit  button. The universally unique identifier (UUID) of the project can be found in the URL.
77
78 !{width: 100%}{{ site.baseurl }}/images/wgs-tutorial/image6.png!
79
80 _*Figure 4*:  Screenshot of renaming new project using Arvados Workbench.   The UUID of the project can be found in the URL and is highlighted in yellow in this image for emphasis._
81
82 If you choose to use another name for your project, just keep in mind when the project name is referenced in the walkthrough later on.
83
84 h3. 3b. Working with Collections
85
86 Collections in Arvados help organize and manage your data. You can upload your existing data into a collection or reuse data from one or more existing collections. Collections allow us to reorganize our files without duplicating or physically moving the data, making them very efficient to use even when working with terabytes of data.   Each collection has a universally unique identifier (collection UUID).  This is a constant for this collection, even if we add or remove files -- or rename the collection.  You use this if we want to to identify the most recent version of our collection to use in our workflows.
87
88 Arvados uses a content-addressable filesystem (i.e. Keep) where the addresses of files are derived from their contents.  A major benefit of this is that Arvados can then verify that when a dataset is retrieved it is the dataset you requested  and can track the exact datasets that were used for each of our previous calculations.  This is what allows you to be certain that we are always working with the data that you think you are using.  You use the content address of a collection when you want to guarantee that you use the same version as input to your workflow.
89
90 !{width: 100%}{{ site.baseurl }}/images/wgs-tutorial/image1.png!
91
92 _*Figure 5*:  Screenshot of a collection in Arvados as viewed via the Arvados Workbench. On the upper left you will find a panel that contains: the name of the collection (editable), a description of the collection (editable),  the collection UUID and the content address and content size._
93
94 Let’s start working with collections by copying the existing collection that stores the FASTQ data being processed into our new “WGS Processing Tutorial” project.
95
96 First, you must find the collection you are interested in copying over to your project.  There are several ways to search for a collection: by collection name, by UUID or by content address.  In this case, let’s search for our collection by name.
97
98 In this case it is called “PGP UK FASTQs” and by searching for it in the “search this site” box.  It will come up and you can navigate to it.  You would do similarly if you would want to search by UUID or content address.
99
100 Now that you have found the collection of FASTQs you want to copy to your project, you can simply use the  Copy to project... button and select your new project to copy the collection there.  You can rename your collection whatever you wish, or use the default name on copy and add whatever description you would like.
101
102
103
104 We want to do the same thing for the other inputs to our WGS workflow. Similar to the “PGP UK FASTQs” collection there is a collection of inputs entitled “WGS Tutorial References” and that collection can be copied over in a similar fashion.
105
106 Now that we are a bit more familiar with the Arvados Workbench, projects and collections.  Let’s move onto running a workflow.
107
108 h2. 4. Running the WGS Processing Workflow
109
110 In this section, we will be discussing three ways to run the tutorial workflow using Arvados.  We will start using the easiest way and then progress to the more involved ways to run a workflow via the command line which will allow you more control over your inputs, workflow parameters and setup.  Feel free to end your walkthrough after the first way or to pick and choose the ways that appeal the most to you, fit your experience and/or preferred way of working.
111
112 h3. 4a. Interactively Running a Workflow Using Workbench
113
114 Workflows can be registered in Arvados. Registration allows you to share a workflow with other Arvados users, and let’s them run the workflow by clicking the  Run a process… button on the Workbench Dashboard and on the command line by specifying the workflow UUID.  Default values can be specified for workflow inputs.
115
116 We have already previously registered the WGS workflow and set default input values for this set of the walkthrough.
117
118 Let’s find the the registered WGS Processing Workflow and run it interactively in our newly created project.
119
120 * To find the registered workflow, you can search for it in the search box located in the top right corner of the Arvados Workbench by looking for the name  “WGS Processing Workflow”.
121 * Once you have found the registered workflow, you can run it your project by using the  Run this workflow.. button and selecting your New Project you set up in Section 3a.
122 * Default inputs to the registered workflow will automatically be filled in.  These inputs will still work.  You can verify this by checking the addresses of the collections you copied over to your New Project.  However, if you wanted to change the inputs to the workflow, this is where you would do it.
123 * Now, you can submit your workflow by hitting the Run button.
124
125 Congratulations! You have now submitted your workflow to run. You can move to Section 5 to learn how to check the state of your submitted workflow and Section 6 to learn how to examine the results of and logs from your workflow.
126
127 Let’s now say instead of running a registered workflow you want to run a workflow using the command line.  This is a completely optional step in the walkthrough.  To do this, you can specify cwl files to define the workflow you want to run and the yml files to specify the inputs to our workflow.  In this walkthrough we will give two options (4b) and (4c) for running the workflow on the commandline.  Option 4b uses a virtual machine provided by Arvados made accessible via a browser that requires no additional setup. Option 4c allows you to submit from your personal machine but you must install necessary packages and edit configurations to allow you to submit to the Arvados cluster.  Please choose whichever works best for you.
128
129 h3. 4b. Optional: Setting up to Run a Workflow Using Command Line and an Arvados Virtual Machine
130
131 Arvados provides a virtual machine which has all the necessary client-side libraries installed to submit to your Arvados cluster using the command line.  Webshell gives you access to an Arvados Virtual Machine (VM) from your browser with no additional setup.  You can access webshell through the Arvados Workbench.  It is the easiest way to try out submitting a workflow to Arvados via the command line.
132
133 To get access to webshell on the Arvados Playground, you need to contact a Curii Arvados Playground Administrator to get access to an Arvados shell node by emailing "support@curii.com.":mailto:support@curii.com
134
135 Once you receive an email letting you know your access has been set up and you should be able to access the shell virtual machine.  You can follow the instructions here to access the machine using the browser (also known as using webshell):
136 * "{{ site.baseurl }}/user/getting_started/vm-login-with-webshell.html":{{ site.baseurl }}/user/getting_started/vm-login-with-webshell.html
137
138 Arvados also allows you to ssh into the shell machine and other hosted VMs instead of using the webshell capabilities. However this tutorial does not cover that option in-depth.  If you like to explore it on your own, you can allow the instructions in the documentation here:
139 * "{{ site.baseurl }}/user/getting_started/ssh-access-unix.html":{{ site.baseurl }}/user/getting_started/ssh-access-unix.html
140 (Unix)
141 * "{{ site.baseurl }}/user/getting_started/ssh-access-windows.html (Windows)":{{ site.baseurl }}/user/getting_started/ssh-access-windows.html (Windows)
142
143 Once you can use webshell, you can proceed to section *“4d. Running a Workflow Using the Command Line”* .
144
145 h3. 4c. Optional: Setting up to Run a Workflow Using Command Line and Your Computer
146
147 Instead of using a virtual machine provided by Arvados, you can install the necessary libraries and configure your computer to be able to submit to your Arvados cluster directly.  This is more of an advanced option and is for users who are comfortable installing software and libraries and configuring them on their machines.
148
149 To be able to submit workflows to the Arvados cluster, you will need to install the Python SDK on your machine.  Additional features can be made available by installing additional libraries, but this is the bare minimum you need to install to do this walkthrough tutorial.  You can follow the instructions in the Arvados documentment to install the Python SDK and set the appropriate configurations to access the Arvados Playground.
150
151 * Installing the Python SDK:   "{{ site.baseurl }}/sdk/python/sdk-python.html":{{ site.baseurl }}/sdk/python/sdk-python.html
152 ** Note: You will only need to complete through the end of the Test section.
153 * Setting Configurations to Access the Arvados Playground:
154 "{{ site.baseurl }}/user/reference/api-tokens.html":{{ site.baseurl }}/user/reference/api-tokens.html
155
156 Once you have your machine set up to submit to the Arvados Playground Cluster, you can proceed to section *“4d. Running a Workflow Using the Command Line”* .
157
158 h3. 4d. Optional: Running a Workflow Using the Command Line
159
160 Now that we have access to a machine that can submit to the Arvados Playground, let’s download the relevant files containing the workflow description and inputs.
161
162 First, we will
163 * Clone the tutorial repository from GitHub ("https://github.com/arvados/arvados-tutorial":https://github.com/arvados/arvados-tutorial)
164 * Change directories into the WGS tutorial folder
165
166 <pre><code>$ git clone https://github.com/arvados/arvados-tutorial.git
167 $ cd arvados-tutorial/WGS-processing
168 </code></pre>
169
170 Recall that CWL is a way to describe command line tools and connect them together to create workflows.  YML files can be used to specify input values into these individual command line tools or overarching workflows.
171
172 The tutorial directories are as follows:
173 * @cwl@ - contains CWL descriptions of workflows and command line tools for the tutorial
174 * @yml@ - contains YML files for inputs for the main workflow or to test subworkflows command line tools
175 * @src@ - contains any source code necessary for the tutorial
176 * @docker@ - contains dockerfiles necessary to re-create any needed docker images used in the tutorial
177
178 Before we run the WGS processing workflow, we want to adjust the inputs to match those in your new project.  The workflow that we want to submit is described by the file @/cwl/@ and the inputs are given by the file @/yml/@.  Note: while all the cwl files are needed to describe the full workflow only the single yml with the workflow inputs is needed to run the workflow. The additional yml files (in the helper folder) are provided for testing purposes or if one might want to test or run an underlying subworkflow or cwl for a command line tool by itself.
179
180 Several of the inputs in the yml file point to original content addresses of collections that you make copies of in our New Project.  These still work because even though we made copies of the collections into our new project we haven’t changed the underlying contents. However, by changing this file is in general how you would alter the inputs in the accompanying yml file for a given workflow.
181
182 The command to submit to the Arvados Playground Cluster is @arvados-cwl-runner@.
183 To submit the WGS processing workflow , you need to run the following command replacing YOUR_PROJECT_UUID with the UUID of the new project you created for this tutorial.
184
185 <pre><code>$ arvados-cwl-runner --no-wait --project-uuid YOUR_PROJECT_UUID ./cwl/wgs-processing-wf.cwl ./yml/wgs-processing-wf.yml
186 </code></pre>
187
188 The @--no-wait@ option will submit the workflow to Arvados, print out the UUID of the job that was submitted to standard output, and exit instead of waiting until the job is finished to return the command prompt.
189
190 The @--project-uuid@ option specifies the project you want the workflow to run in, that means the outputs and log collections as well as the workflow process will be saved in that project
191
192 If the workflow submitted successfully, you should see the following at the end of the output to the screen
193
194 <pre><code>INFO Final process status is success
195 </code></pre>
196
197 Now, you are ready to check the state of your submitted workflow.
198
199 h2. 5.  Checking the State Of a Submitted Workflow
200
201 Once you have submitted your workflow, you can examine its state interactively using the Arvados Workbench.  If you aren’t already viewing your workflow process on the workbench, there several ways to get to your submitted workflow.  Here are two of the simplest ways:
202
203 * Via the Dashboard: It should be listed at the top of the list of “Recent Processes”. Just click on the name of your submitted workflow and it will take you to the submitted workflow information.
204 * Via Your Project:  You will want to go back to your new project, using the Projects pulldown menu or searching for the project name.  Note: You can mark a Project as a favorite (if/when you have multiple Projects) to make it easier to find on the pulldown menu using the star next to the project name on the project page.
205
206 The process you will be looking for will be titled “WGS processing workflow scattered over samples”(if you submitted via the command line) or NAME OF REGISTERED WORKFLOW container (if you submitted via the Registered Workflow).
207
208 Once you have found your workflow, you can clearly see the state of the overall workflow and underlying steps below by their label.
209
210 Common states you will see are as follows:
211
212 * Queued  -  Workflow or step is waiting to run
213 * Running   or  Active   - Workflow is currently running
214 * Complete  - Workflow or step has successfully completed
215 * Failed  - Workflow or step has not successfully completed
216 * Failing  -- Workflow is running but has steps that have failed
217 * Cancelled  - Workflow or step has been either manually cancelled or has been canceled by Arvados due to an Issue
218
219 Since Arvados Crunch reuses steps and workflows if possible, this workflow should run relatively quickly since this workflow has been run before and you have access to those previously run steps.  You may notice an initial period where the top level job shows the option of canceling while the other steps are filled in with already finished steps.
220
221 h2. 6.  Examining a Finished Workflow
222
223 Once your workflow has finished, you can see how long it took the workflow to run, see scaling information, and examine the logs and outputs.  Outputs will be only available for steps that have been successfully completed.   Outputs will be saved for every step in the workflow and be saved for the workflow itself.  Outputs are saved in collections.  You can access each collection by clicking on the link corresponding to the output.
224
225 !{width: 100%}{{ site.baseurl }}/images/wgs-tutorial/image5.png!
226
227 _*Figure 6*:  Screenshot of a completed workflow process in Arvados as viewed via the Arvados Workbench. You can click on the outputs link (highlighted in yellow) to view the outputs. Outputs of a workflow are stored in a collection._
228
229 If we click on the outputs of the workflow, we will see the output collection.
230
231 Contained in this collection, is the GVCF, tabix index file, and html ClinVar report for each analyzed sample (e.g. set of FASTQs).   By clicking on the download button to the right of the file, you can download it to your local machine.  You can also use the command line to download single files or whole collections to your machine. You can examine the outputs of a step similarly by using the arrow to expand the panel to see more details.
232
233 Logs for the main process can be found in the Log tab.  There several logs available, so here is a basic summary of what some of the more commonly used logs contain.  Let's first define a few terms that will help us understand what the logs are tracking.
234
235 As you may recall, Arvados Crunch manages the running of workflows. A _container request_ is an order sent to Arvados Crunch to perform some computational work. Crunch fulfils a request by either choosing a worker node to execute a container, or finding an identical/equivalent container that has already run. You can use _container request_ or _container_ to distinguish between a work order that is submitted to be run and a work order that is actually running or has been run. So our container request in this case is just the submitted workflow we sent to the Arvados cluster.
236
237 A _node_ is a compute resource where Arvardos can schedule work.  In our case since the Arvados Playground is running on a cloud, our nodes are virtual machines.  @arvados-cwl-runner@ (acr) executes CWL workflows by submitting the individual parts to Arvados as containers and crunch-run is an internal component that runs on nodes and executes containers.
238
239 * @stderr.txt@
240 ** Captures everything written to standard error by the programs run by the executing container
241 * @node-info.txt@ and @node.json@
242 ** Contains information about the nodes that executed this container. For the Arvados Playground, this gives information about the virtual machine instance that ran the container.
243 node.json gives a high level overview about the instance such as name, price, and RAM while node-info.txt gives more detailed information about the virtual machine (e.g. cpu of each processor)
244 * @crunch-run.txt@ and @crunchstat.txt@
245 ** @crunch-run.txt@ has info about how the container's execution environment was set up (e.g., time spent loading the docker image) and timing/results of copying output data to Keep (if applicable)
246 ** @crunchstat.txt@ has info about resource consumption (RAM, cpu, disk, network) by the container while it was running.
247 * @container.json@
248 ** Describes the container (unit of work to be done), contains CWL code, runtime constraints (RAM, vcpus) amongst other details
249 * @arv-mount.txt@
250 ** Contains information using Arvados Keep on the node executing the container
251 * @hoststat.txt@
252 ** Contains about resource consumption (RAM, cpu, disk, network) on the node while it was running
253
254 This is different from the log crunchstat.txt because it includes resource consumption of Arvados components that run on the node outside the container such as crunch-run and other processes related to the Keep file system.
255
256 For the highest level logs, the logs are tracking the container that ran the arvados-cwl-runner process which you can think of as the “mastermind” behind tracking which parts of the CWL workflow need to be run when, which have been run already, what order they need to be run, which can be run simultaneously, and so forth and then sending out the related container requests.  Each step then has their own logs related to containers running a CWL step of the workflow including a log of standard error that contains the standard error of the code run in that CWL step.  Those logs can be found by expanding the steps and clicking on the link to the log collection.
257
258 Let’s take a peek at a few of these logs to get you more familiar with them.  First, we can look at the stderr.txt of the highest level process.  Again recall this should be of the “mastermind” arvados-cwl-runner process.  You can click on the log to download it to your local machine, and when you look at the contents - you should see something like the following...
259
260 <pre><code>2020-06-22T20:30:04.737703197Z INFO /usr/bin/arvados-cwl-runner 2.0.3, arvados-python-client 2.0.3, cwltool 1.0.20190831161204
261 2020-06-22T20:30:04.743250012Z INFO Resolved '/var/lib/cwl/workflow.json#main' to 'file:///var/lib/cwl/workflow.json#main'
262 2020-06-22T20:30:20.749884298Z INFO Using empty collection d41d8cd98f00b204e9800998ecf8427e+0
263 [removing some log contents here for brevity]
264 2020-06-22T20:30:35.629783939Z INFO Running inside container su92l-dz642-uaqhoebfh91zsfd
265 2020-06-22T20:30:35.741778080Z INFO [workflow WGS processing workflow] start
266 2020-06-22T20:30:35.741778080Z INFO [workflow WGS processing workflow] starting step getfastq
267 2020-06-22T20:30:35.741778080Z INFO [step getfastq] start
268 2020-06-22T20:30:36.085839313Z INFO [step getfastq] completed success
269 2020-06-22T20:30:36.212789670Z INFO [workflow WGS processing workflow] starting step bwamem-gatk-report
270 2020-06-22T20:30:36.213545871Z INFO [step bwamem-gatk-report] start
271 2020-06-22T20:30:36.234224197Z INFO [workflow bwamem-gatk-report] start
272 2020-06-22T20:30:36.234892498Z INFO [workflow bwamem-gatk-report] starting step fastqc
273 2020-06-22T20:30:36.235154798Z INFO [step fastqc] start
274 2020-06-22T20:30:36.237328201Z INFO Using empty collection d41d8cd98f00b204e9800998ecf8427e+0
275 </code></pre>
276
277 You can see the output of all the work that arvados-cwl-runner does by managing the execution of the CWL workflow and all the underlying steps and subworkflows.
278
279 Now, let’s explore the logs for a step in the workflow.   Remember that those logs can be found by expanding the steps and clicking on the link to the log collection.   Let’s look at the log for the step that does the alignment.  That step is named bwamem-samtools-view.  We can see there are 10 of them because we are aligning 10 genomes.  Let’s look at bwamem-samtools-view2.
280
281 We click the arrow to open up the step, and then can click on the log collection to access the logs.  You may notice there are two sets of seemingly identical logs.  One listed under a directory named for a container and one up in the main directory.  This is done in case your step had to be automatically re-run due to any issues and gives the logs of each re-run. The logs in the main directory are the logs for the successful run. In most cases this does not happen, you will just see one directory and one those logs will match the logs in the main directory.  Let’s open the logs labeled node-info.txt and stderr.txt.
282
283 @node-info.txt@ gives us information about detailed information about the virtual machine this step was run on.  The tail end of the log should look like the following:
284
285 <pre><code>Memory Information
286 MemTotal:       64465820 kB
287 MemFree:        61617620 kB
288 MemAvailable:   62590172 kB
289 Buffers:           15872 kB
290 Cached:          1493300 kB
291 SwapCached:            0 kB
292 Active:          1070868 kB
293 Inactive:        1314248 kB
294 Active(anon):     873716 kB
295 Inactive(anon):     8444 kB
296 Active(file):     197152 kB
297 Inactive(file):  1305804 kB
298 Unevictable:           0 kB
299 Mlocked:               0 kB
300 SwapTotal:             0 kB
301 SwapFree:              0 kB
302 Dirty:               952 kB
303 Writeback:             0 kB
304 AnonPages:        874968 kB
305 Mapped:           115352 kB
306 Shmem:              8604 kB
307 Slab:             251844 kB
308 SReclaimable:     106580 kB
309 SUnreclaim:       145264 kB
310 KernelStack:        5584 kB
311 PageTables:         3832 kB
312 NFS_Unstable:          0 kB
313 Bounce:                0 kB
314 WritebackTmp:          0 kB
315 CommitLimit:    32232908 kB
316 Committed_AS:    2076668 kB
317 VmallocTotal:   34359738367 kB
318 VmallocUsed:           0 kB
319 VmallocChunk:          0 kB
320 Percpu:             5120 kB
321 AnonHugePages:    743424 kB
322 ShmemHugePages:        0 kB
323 ShmemPmdMapped:        0 kB
324 HugePages_Total:       0
325 HugePages_Free:        0
326 HugePages_Rsvd:        0
327 HugePages_Surp:        0
328 Hugepagesize:       2048 kB
329 Hugetlb:               0 kB
330 DirectMap4k:      155620 kB
331 DirectMap2M:     6703104 kB
332 DirectMap1G:    58720256 kB
333
334 Disk Space
335 Filesystem      1M-blocks  Used Available Use% Mounted on
336 /dev/nvme1n1p1       7874  1678      5778  23% /
337 /dev/mapper/tmp    381746  1496    380251   1% /tmp
338
339 Disk INodes
340 Filesystem         Inodes IUsed     IFree IUse% Mounted on
341 /dev/nvme1n1p1     516096 42253    473843    9% /
342 /dev/mapper/tmp 195549184 44418 195504766    1% /tmp
343 </code></pre>
344
345 We can see all the details of the virtual machine used for this step, including that it has 16 cores and 64 GIB of RAM.
346
347 @stderr.txt@ gives us everything written to standard error by the programs run in this step.  This step ran successfully so we don’t need to use this to debug our step currently. We are just taking a look for practice.
348
349 The tail end of our log should be similar to the following:
350
351 <pre><code>2020-08-04T04:37:19.674225566Z [main] CMD: /bwa-0.7.17/bwa mem -M -t 16 -R @RG\tID:sample\tSM:sample\tLB:sample\tPL:ILLUMINA\tPU:sample1 -c 250 /keep/18657d75efb4afd31a14bb204d073239+13611/GRCh38_no_alt_plus_hs38d1_analysis_set.fna /keep/a146a06222f9a66b7d141e078fc67660+376237/ERR2122554_1.fastq.gz /keep/a146a06222f9a66b7d141e078fc67660+376237/ERR2122554_2.fastq.gz
352 2020-08-04T04:37:19.674225566Z [main] Real time: 35859.344 sec; CPU: 553120.701 sec
353 </code></pre>
354
355 This is the command we ran to invoke bwa-mem, and the scaling information for running bwa-mem multi-threaded across 16 cores (15.4x).
356
357 We hope that now that you have a bit more familiarity with the logs you can continue to use them to debug and optimize your own workflows as you move forward with using Arvados if your own work in the future.
358
359 h2. 7.  Conclusion
360
361 Thank you for working through this walkthrough tutorial.  Hopefully this tutorial has helped you get a feel for working with Arvados. This tutorial just covered the basic capabilities of Arvados. There are many more capabilities to explore.  Please see the links featured at the end of Section 1 for ways to learn more about Arvados or get help while you are working with Arvados.
362
363 If you would like help setting up your own production instance of Arvados, please contact us at "info@curii.com.":info@curii.com
364
365 </div>