Fix 2.4.2 upgrade notes formatting refs #19330
[arvados.git] / doc / user / tutorials / wgs-tutorial.html.textile.liquid
1 ---
2 layout: default
3 navsection: userguide
4 title: "Processing Whole Genome Sequences"
5 ...
6 {% comment %}
7 Copyright (C) The Arvados Authors. All rights reserved.
8
9 SPDX-License-Identifier: CC-BY-SA-3.0
10 {% endcomment %}
11
12 <div style="max-width: 600px; margin-left: 30px">
13
14 h2. 1. A Brief Introduction to Arvados
15
16 Arvados is an open source platform for managing, processing, and sharing genomic and other large scientific and biomedical data.   Arvados helps bioinformaticians run and scale compute-intensive workflows.  By running their workflows in Arvados, they can scale their calculations dynamically in the cloud, track methods and datasets, and easily re-run workflow steps or whole workflows when necessary. This tutorial walkthrough shows examples of running a “real-world” workflow and how to navigate and use the Arvados working environment.
17
18 When you log into your account on the Arvados playground ("https://playground.arvados.org":https://playground.arvados.org), you see the Arvados Workbench which is the web application that allows users to interactively access Arvados functionality.  For this tutorial, we will largely focus on using the Arvados Workbench since that is an easy way to get started using Arvados.  You can also access Arvados via your command line and/or using the available REST API and SDKs.   If you are interested, this tutorial walkthrough will have an optional component that will cover using the command line.
19
20 By using the Arvados Workbench or using the command line, you can submit your workflows to run on your Arvados cluster.  An Arvados cluster can be hosted in the cloud as well as on premise and on hybrid clusters. The Arvados playground cluster is currently hosted in the cloud.
21
22 You can also use the workbench or command line to access data in the Arvados storage system called Keep which is designed for managing and storing large collections of files on your Arvados cluster. The running of workflows is managed by Crunch. Crunch is designed to maintain data provenance and workflow reproducibility. Crunch automatically tracks data inputs and outputs through Keep and executes workflow processes in Docker containers. In a cloud environment, Crunch optimizes costs by scaling compute on demand.
23
24 _Ways to Learn More About Arvados_
25 * To learn more in general about Arvados, please visit the Arvados website here: "https://arvados.org/":https://arvados.org/
26 * For a deeper dive into Arvados, the Arvados documentation can be found here: "https://doc.arvados.org/":https://doc.arvados.org/
27 * For help on Arvados, visit the Gitter channel here: "https://gitter.im/arvados/community":https://gitter.im/arvados/community
28
29
30 h2. 2. A Brief Introduction to the Whole Genome Sequencing (WGS) Processing Tutorial
31
32 The workflow used in this tutorial walkthrough serves as a “real-world” workflow example that takes in WGS data (paired FASTQs) and returns GVCFs and accompanying variant reports.  In this walkthrough, we will be processing approximately 10 public genomes made available by the Personal Genome Project.  This set of data is from the PGP-UK ("https://www.personalgenomes.org.uk/":https://www.personalgenomes.org.uk/).
33
34 The overall steps in the workflow include:
35 * Check of FASTQ quality using FastQC ("https://www.bioinformatics.babraham.ac.uk/projects/fastqc/":https://www.bioinformatics.babraham.ac.uk/projects/fastqc/)
36 * Local alignment using BWA-MEM ("http://bio-bwa.sourceforge.net/bwa.shtml":http://bio-bwa.sourceforge.net/bwa.shtml)
37 * Variant calling in parallel using GATK Haplotype Caller ("https://gatk.broadinstitute.org/hc/en-us":https://gatk.broadinstitute.org/hc/en-us)
38 * Generation of an HTML report comparing variants against ClinVar archive ("https://www.ncbi.nlm.nih.gov/clinvar/":https://www.ncbi.nlm.nih.gov/clinvar/)
39
40 The workflow is written in "Common Workflow Language":https://commonwl.org (CWL), the primary way to develop and run workflows for Arvados.
41
42 Below are diagrams of the main workflow which runs the processing across multiple sets of fastq and the main subworkflow (run multiple times in parallel by the main workflow) which processes a single set of FASTQs.  This main subworkflow also calls other additional subworkflows including subworkflows that perform variant calling using GATK in parallel by regions and generate the ClinVar HTML variant report.  These CWL diagrams (generated using "CWL viewer":https://view.commonwl.org) will give you a basic idea of the flow, input/outputs and workflow steps involved in the tutorial example.  However, if you aren’t used to looking at CWL workflow diagrams and/or aren’t particularly interested in this level of detail, do not worry.  You will not need to know these particulars to run the workflow.
43
44 <figure> !{width: 100%}{{ site.baseurl }}/images/wgs-tutorial/image2.png!
45 <figcaption> _*Figure 1*:  Main CWL Workflow for WGS Processing Tutorial.  This runs the same WGS subworkflow over multiple pairs FASTQs files._ </figcaption> </figure>
46
47 <figure> !{width: 100%}{{ site.baseurl }}/images/wgs-tutorial/image3.png!
48 <figcaption> _*Figure 2*:  Main subworkflow for the WGS Processing Tutorial.  This subworkflow does alignment, deduplication, variant calling and reporting._ </figcaption> </figure>
49
50 _Ways to Learn More About CWL_
51
52 * The CWL website has lots of good content including the CWL User Guide: "https://www.commonwl.org/":https://www.commonwl.org/
53 * Commonly Asked Questions and Answers can be found in the Discourse Group, here: "https://cwl.discourse.group/":https://cwl.discourse.group/
54 * For help on CWL, visit the Gitter channel here: "https://gitter.im/common-workflow-language/common-workflow-language":https://gitter.im/common-workflow-language/common-workflow-language
55 * Repository of CWL CommandLineTool descriptions for commons tools in bioinformatics:
56 "https://github.com/common-workflow-library/bio-cwl-tools/":https://github.com/common-workflow-library/bio-cwl-tools/
57
58
59 h2. 3. Setting Up to Run the WGS Processing Workflow
60
61 Let’s get a little familiar with the Arvados Workbench while also setting up to run the WGS processing tutorial workflow.  Logging into the workbench will present you with the Dashboard. This gives a summary of your projects and recent activity in your Arvados instance, i.e. the Arvados Playground.  The Dashboard will only give you information about projects and activities that you have permissions to view and/or access.  Other users' private or restricted projects and activities will not be visible by design.
62
63 h3. 3a. Setting up a New Project
64
65 Projects in Arvados help you organize and track your work - and can contain data, workflow code, details about workflow runs, and results.  Let’s begin by setting up a new project for the work you will be doing in this walkthrough.
66
67 To create a new project, go to the Projects dropdown menu and select “Add a New Project”.
68
69 <figure> !{width: 100%}{{ site.baseurl }}/images/wgs-tutorial/image4.png!
70 <figcaption> _*Figure 3*:  Adding a new project using Arvados Workbench._ </figcaption> </figure>
71
72 Let’s name your project “WGS Processing Tutorial”. You can also add a description of your project using the  *Edit* button. The universally unique identifier (UUID) of the project can be found in the URL.
73
74 <figure> !{width: 100%}{{ site.baseurl }}/images/wgs-tutorial/image6.png!
75 <figcaption> _*Figure 4*:  Renaming new project using Arvados Workbench.   The UUID of the project can be found in the URL and is highlighted in yellow in this image for emphasis._ </figcaption> </figure>
76
77 If you choose to use another name for your project, just keep in mind when the project name is referenced in the walkthrough later on.
78
79 h3. 3b. Working with Collections
80
81 Collections in Arvados help organize and manage your data. You can upload your existing data into a collection or reuse data from one or more existing collections. Collections allow us to reorganize our files without duplicating or physically moving the data, making them very efficient to use even when working with terabytes of data.   Each collection has a universally unique identifier (collection UUID).  This is a constant for this collection, even if we add or remove files -- or rename the collection.  You use this if we want to to identify the most recent version of our collection to use in our workflows.
82
83 Arvados uses a content-addressable filesystem (i.e. Keep) where the addresses of files are derived from their contents.  A major benefit of this is that Arvados can then verify that when a dataset is retrieved it is the dataset you requested  and can track the exact datasets that were used for each of our previous calculations.  This is what allows you to be certain that we are always working with the data that you think you are using.  You use the content address of a collection when you want to guarantee that you use the same version as input to your workflow.
84
85 <figure> !{width: 100%}{{ site.baseurl }}/images/wgs-tutorial/image1.png!
86 <figcaption> _*Figure 5*:  A collection in Arvados as viewed via the Arvados Workbench. On the upper left you will find a panel that contains: the name of the collection (editable), a description of the collection (editable),  the collection UUID and the content address and content size._ </figcaption> </figure>
87
88 Let’s start working with collections by copying the existing collection that stores the FASTQ data being processed into our new “WGS Processing Tutorial” project.
89
90 First, you must find the collection you are interested in copying over to your project.  There are several ways to search for a collection: by collection name, by UUID or by content address.  In this case, let’s search for our collection by name.
91
92 In this case it is called “PGP UK FASTQs” and by searching for it in the “search this site” box.  It will come up and you can navigate to it.  You would do similarly if you would want to search by UUID or content address.
93
94 Now that you have found the collection of FASTQs you want to copy to your project, you can simply use the <span class="btn btn-sm btn-primary" >Copy to project...</span> button and select your new project to copy the collection there.  You can rename your collection whatever you wish, or use the default name on copy and add whatever description you would like.
95
96
97
98 We want to do the same thing for the other inputs to our WGS workflow. Similar to the “PGP UK FASTQs” collection there is a collection of inputs entitled “WGS Processing reference data” and that collection can be copied over in a similar fashion.
99
100 Now that we are a bit more familiar with the Arvados Workbench, projects and collections.  Let’s move onto running a workflow.
101
102 h2. 4. Running the WGS Processing Workflow
103
104 In this section, we will be discussing three ways to run the tutorial workflow using Arvados.  We will start using the easiest way and then progress to the more involved ways to run a workflow via the command line which will allow you more control over your inputs, workflow parameters and setup.  Feel free to end your walkthrough after the first way or to pick and choose the ways that appeal the most to you, fit your experience and/or preferred way of working.
105
106 h3. 4a. Interactively Running a Workflow Using Workbench
107
108 Workflows can be registered in Arvados. Registration allows you to share a workflow with other Arvados users, and let’s them run the workflow by clicking the  <span class="btn btn-sm btn-primary" >Run a process…</span> button on the Workbench Dashboard and on the command line by specifying the workflow UUID.  Default values can be specified for workflow inputs.
109
110 We have already previously registered the WGS workflow and set default input values for this set of the walkthrough.
111
112 Let’s find the registered WGS Processing Workflow and run it interactively in our newly created project.
113
114 # To find the registered workflow, you can search for it in the search box located in the top right corner of the Arvados Workbench by looking for the name  “WGS Processing Workflow”.
115 # Once you have found the registered workflow, you can run it your project by using the  <span class="btn btn-sm btn-primary" >Run this workflow..</span> button and selecting your project ("WGS Processing Tutorial") that you set up in Section 3a.
116 # Default inputs to the registered workflow will be automatically filled in.  These inputs will still work.  You can verify this by checking the addresses of the collections you copied over to your New Project.
117 # The input *Directory of paired FASTQ files* will need to be set.  Click on <span class="btn btn-sm btn-primary" >Choose</span> button, select "PGP UK FASTQs" in the *Choose a dataset* dialog and then click <span class="btn btn-sm btn-primary" >OK</span>.
118 # Now, you can submit your workflow by scrolling to the bottom of the page and hitting the <span class="btn btn-sm btn-primary" >Run</span> button.
119
120 Congratulations! You have now submitted your workflow to run. You can move to Section 5 to learn how to check the state of your submitted workflow and Section 6 to learn how to examine the results of and logs from your workflow.
121
122 Let’s now say instead of running a registered workflow you want to run a workflow using the command line.  This is a completely optional step in the walkthrough.  To do this, you can specify cwl files to define the workflow you want to run and the yml files to specify the inputs to our workflow.  In this walkthrough we will give two options (4b) and (4c) for running the workflow on the commandline.  Option 4b uses a virtual machine provided by Arvados made accessible via a browser that requires no additional setup. Option 4c allows you to submit from your personal machine but you must install necessary packages and edit configurations to allow you to submit to the Arvados cluster.  Please choose whichever works best for you.
123
124 h3. 4b. Optional: Setting up to Run a Workflow Using Command Line and an Arvados Virtual Machine
125
126 Arvados provides a virtual machine which has all the necessary client-side libraries installed to submit to your Arvados cluster using the command line.  Webshell gives you access to an Arvados Virtual Machine (VM) from your browser with no additional setup.  You can access webshell through the Arvados Workbench.  It is the easiest way to try out submitting a workflow to Arvados via the command line.
127
128 New users are playground are automatically given access to a shell account.
129
130 _Note_: the shell accounts are created on an interval and it may take up to two minutes from your initial log in before the shell account is created.
131
132 You can follow the instructions here to access the machine using the browser (also known as using webshell):
133 * "Accessing an Arvados VM with Webshell":{{ site.baseurl }}/user/getting_started/vm-login-with-webshell.html
134
135 Arvados also allows you to ssh into the shell machine and other hosted VMs instead of using the webshell capabilities. However this tutorial does not cover that option in-depth.  If you like to explore it on your own, you can allow the instructions in the documentation here:
136 * "Accessing an Arvados VM with SSH - Unix Environments":{{ site.baseurl }}/user/getting_started/ssh-access-unix.html
137 * "Accessing an Arvados VM with SSH - Windows Environments":{{ site.baseurl }}/user/getting_started/ssh-access-windows.html
138
139 Once you can use webshell, you can proceed to section *“4d. Running a Workflow Using the Command Line”* .
140
141 h3. 4c. Optional: Setting up to Run a Workflow Using Command Line and Your Computer
142
143 Instead of using a virtual machine provided by Arvados, you can install the necessary libraries and configure your computer to be able to submit to your Arvados cluster directly.  This is more of an advanced option and is for users who are comfortable installing software and libraries and configuring them on their machines.
144
145 To be able to submit workflows to the Arvados cluster, you will need to install the Python SDK on your machine.  Additional features can be made available by installing additional libraries, but this is the bare minimum you need to install to do this walkthrough tutorial.  You can follow the instructions in the Arvados documentment to install the Python SDK and set the appropriate configurations to access the Arvados Playground.
146
147 * "Installing the Arvados CWL Runner":{{ site.baseurl }}/sdk/python/arvados-cwl-runner.html
148 * "Setting Configurations to Access the Arvados Playground":{{ site.baseurl }}/user/reference/api-tokens.html
149
150 Once you have your machine set up to submit to the Arvados Playground Cluster, you can proceed to section *“4d. Running a Workflow Using the Command Line”* .
151
152 h3. 4d. Optional: Running a Workflow Using the Command Line
153
154 Now that we have access to a machine that can submit to the Arvados Playground, let’s download the relevant files containing the workflow description and inputs.
155
156 First, we will
157 * Clone the tutorial repository from GitHub ("https://github.com/arvados/arvados-tutorial":https://github.com/arvados/arvados-tutorial)
158 * Change directories into the WGS tutorial folder
159
160 <pre><code>$ git clone https://github.com/arvados/arvados-tutorial.git
161 $ cd arvados-tutorial/WGS-processing
162 </code></pre>
163
164 Recall that CWL is a way to describe command line tools and connect them together to create workflows.  YML files can be used to specify input values into these individual command line tools or overarching workflows.
165
166 The tutorial directories are as follows:
167 * @cwl@ - contains CWL descriptions of workflows and command line tools for the tutorial
168 * @yml@ - contains YML files for inputs for the main workflow or to test subworkflows command line tools
169 * @src@ - contains any source code necessary for the tutorial
170 * @docker@ - contains dockerfiles necessary to re-create any needed docker images used in the tutorial
171
172 Before we run the WGS processing workflow, we want to adjust the inputs to match those in your new project.  The workflow that we want to submit is described by the file @/cwl/@ and the inputs are given by the file @/yml/@.  Note: while all the cwl files are needed to describe the full workflow only the single yml with the workflow inputs is needed to run the workflow. The additional yml files (in the helper folder) are provided for testing purposes or if one might want to test or run an underlying subworkflow or cwl for a command line tool by itself.
173
174 Several of the inputs in the yml file point to original content addresses of collections that you make copies of in our New Project.  These still work because even though we made copies of the collections into our new project we haven’t changed the underlying contents. However, by changing this file is in general how you would alter the inputs in the accompanying yml file for a given workflow.
175
176 The command to submit to the Arvados Playground Cluster is @arvados-cwl-runner@.
177 To submit the WGS processing workflow , you need to run the following command replacing YOUR_PROJECT_UUID with the UUID of the new project you created for this tutorial.
178
179 <pre><code>$ arvados-cwl-runner --no-wait --project-uuid YOUR_PROJECT_UUID ./cwl/wgs-processing-wf.cwl ./yml/wgs-processing-wf.yml
180 </code></pre>
181
182 The @--no-wait@ option will submit the workflow to Arvados, print out the UUID of the job that was submitted to standard output, and exit instead of waiting until the job is finished to return the command prompt.
183
184 The @--project-uuid@ option specifies the project you want the workflow to run in, that means the outputs and log collections as well as the workflow process will be saved in that project
185
186 If the workflow submitted successfully, you should see the following at the end of the output to the screen
187
188 <pre><code>INFO Final process status is success
189 </code></pre>
190
191 Now, you are ready to check the state of your submitted workflow.
192
193 h2. 5.  Checking the State Of a Submitted Workflow
194
195 Once you have submitted your workflow, you can examine its state interactively using the Arvados Workbench.  If you aren’t already viewing your workflow process on the workbench, there several ways to get to your submitted workflow.  Here are two of the simplest ways:
196
197 * Via the Dashboard: It should be listed at the top of the list of “Recent Processes”. Just click on the name of your submitted workflow and it will take you to the submitted workflow information.
198 * Via Your Project:  You will want to go back to your new project, using the Projects pulldown menu or searching for the project name.  Note: You can mark a Project as a favorite (if/when you have multiple Projects) to make it easier to find on the pulldown menu using the star next to the project name on the project page.
199
200 The process you will be looking for will be titled “WGS processing workflow scattered over samples”(if you submitted via the command line) or NAME OF REGISTERED WORKFLOW container (if you submitted via the Registered Workflow).
201
202 Once you have found your workflow, you can clearly see the state of the overall workflow and underlying steps below by their label.
203
204 Common states you will see are as follows:
205
206 * <span class="label label-default">Queued</span>  -  Workflow or step is waiting to run
207 * <span class="label label-info">Running</span> or <span class="label label-info">Active</span> - Workflow is currently running
208 * <span class="label label-success">Complete</span> - Workflow or step has successfully completed
209 * <span class="label label-warning">Failing</span> - Workflow is running but has steps that have failed
210 * <span class="label label-danger">Failed</span> - Workflow or step did not complete successfully
211 * <span class="label label-danger">Cancelled</span>  - Workflow or step was either manually cancelled or was canceled by Arvados due to a system error
212
213 Since Arvados Crunch reuses steps and workflows if possible, this workflow should run relatively quickly since this workflow has been run before and you have access to those previously run steps.  You may notice an initial period where the top level job shows the option of canceling while the other steps are filled in with already finished steps.
214
215 h2. 6.  Examining a Finished Workflow
216
217 Once your workflow has finished, you can see how long it took the workflow to run, see scaling information, and examine the logs and outputs.  Outputs will be only available for steps that have been successfully completed.   Outputs will be saved for every step in the workflow and be saved for the workflow itself.  Outputs are saved in collections.  You can access each collection by clicking on the link corresponding to the output.
218
219 <figure> !{width: 100%}{{ site.baseurl }}/images/wgs-tutorial/image5.png!
220 <figcaption> _*Figure 6*:  A completed workflow process in Arvados as viewed via the Arvados Workbench. You can click on the outputs link (highlighted in yellow) to view the outputs. Outputs of a workflow are stored in a collection._ </figcaption> </figure>
221
222 If we click on the outputs of the workflow, we will see the output collection.
223
224 Contained in this collection, is the GVCF, tabix index file, and html ClinVar report for each analyzed sample (e.g. set of FASTQs).   By clicking on the download button to the right of the file, you can download it to your local machine.  You can also use the command line to download single files or whole collections to your machine. You can examine the outputs of a step similarly by using the arrow to expand the panel to see more details.
225
226 Logs for the main process can be found in the Log tab.  There several logs available, so here is a basic summary of what some of the more commonly used logs contain.  Let's first define a few terms that will help us understand what the logs are tracking.
227
228 As you may recall, Arvados Crunch manages the running of workflows. A _container request_ is an order sent to Arvados Crunch to perform some computational work. Crunch fulfils a request by either choosing a worker node to execute a container, or finding an identical/equivalent container that has already run. You can use _container request_ or _container_ to distinguish between a work order that is submitted to be run and a work order that is actually running or has been run. So our container request in this case is just the submitted workflow we sent to the Arvados cluster.
229
230 A _node_ is a compute resource where Arvardos can schedule work.  In our case since the Arvados Playground is running on a cloud, our nodes are virtual machines.  @arvados-cwl-runner@ (acr) executes CWL workflows by submitting the individual parts to Arvados as containers and crunch-run is an internal component that runs on nodes and executes containers.
231
232 * @stderr.txt@
233 ** Captures everything written to standard error by the programs run by the executing container
234 * @node-info.txt@ and @node.json@
235 ** Contains information about the nodes that executed this container. For the Arvados Playground, this gives information about the virtual machine instance that ran the container.
236 node.json gives a high level overview about the instance such as name, price, and RAM while node-info.txt gives more detailed information about the virtual machine (e.g. cpu of each processor)
237 * @crunch-run.txt@ and @crunchstat.txt@
238 ** @crunch-run.txt@ has info about how the container's execution environment was set up (e.g., time spent loading the docker image) and timing/results of copying output data to Keep (if applicable)
239 ** @crunchstat.txt@ has info about resource consumption (RAM, cpu, disk, network) by the container while it was running.
240 * @container.json@
241 ** Describes the container (unit of work to be done), contains CWL code, runtime constraints (RAM, vcpus) amongst other details
242 * @arv-mount.txt@
243 ** Contains information using Arvados Keep on the node executing the container
244 * @hoststat.txt@
245 ** Contains about resource consumption (RAM, cpu, disk, network) on the node while it was running
246 This is different from the log crunchstat.txt because it includes resource consumption of Arvados components that run on the node outside the container such as crunch-run and other processes related to the Keep file system.
247
248 For the highest level logs, the logs are tracking the container that ran the @arvados-cwl-runner@ process which you can think of as the “workflow runner”. It tracks which parts of the CWL workflow need to be run when, which have been run already, what order they need to be run, which can be run simultaneously, and so forth and then creates the necessary container requests.  Each step has its own logs related to containers running a CWL step of the workflow including a log of standard error that contains the standard error of the code run in that CWL step.  Those logs can be found by expanding the steps and clicking on the link to the log collection.
249
250 Let’s take a peek at a few of these logs to get you more familiar with them.  First, we can look at the @stderr.txt@ of the highest level process.  Again recall this should be of the “workflow runner” @arvados-cwl-runner@ process.  You can click on the log to download it to your local machine, and when you look at the contents - you should see something like the following...
251
252 <pre><code>2020-06-22T20:30:04.737703197Z INFO /usr/bin/arvados-cwl-runner 2.0.3, arvados-python-client 2.0.3, cwltool 1.0.20190831161204
253 2020-06-22T20:30:04.743250012Z INFO Resolved '/var/lib/cwl/workflow.json#main' to 'file:///var/lib/cwl/workflow.json#main'
254 2020-06-22T20:30:20.749884298Z INFO Using empty collection d41d8cd98f00b204e9800998ecf8427e+0
255 [removing some log contents here for brevity]
256 2020-06-22T20:30:35.629783939Z INFO Running inside container su92l-dz642-uaqhoebfh91zsfd
257 2020-06-22T20:30:35.741778080Z INFO [workflow WGS processing workflow] start
258 2020-06-22T20:30:35.741778080Z INFO [workflow WGS processing workflow] starting step getfastq
259 2020-06-22T20:30:35.741778080Z INFO [step getfastq] start
260 2020-06-22T20:30:36.085839313Z INFO [step getfastq] completed success
261 2020-06-22T20:30:36.212789670Z INFO [workflow WGS processing workflow] starting step bwamem-gatk-report
262 2020-06-22T20:30:36.213545871Z INFO [step bwamem-gatk-report] start
263 2020-06-22T20:30:36.234224197Z INFO [workflow bwamem-gatk-report] start
264 2020-06-22T20:30:36.234892498Z INFO [workflow bwamem-gatk-report] starting step fastqc
265 2020-06-22T20:30:36.235154798Z INFO [step fastqc] start
266 2020-06-22T20:30:36.237328201Z INFO Using empty collection d41d8cd98f00b204e9800998ecf8427e+0
267 </code></pre>
268
269 You can see the output of all the work that arvados-cwl-runner does by managing the execution of the CWL workflow and all the underlying steps and subworkflows.
270
271 Now, let’s explore the logs for a step in the workflow.   Remember that those logs can be found by expanding the steps and clicking on the link to the log collection.   Let’s look at the log for the step that does the alignment.  That step is named bwamem-samtools-view.  We can see there are 10 of them because we are aligning 10 genomes.  Let’s look at *bwamem-samtools-view2.*
272
273 We click the arrow to open up the step, and then can click on the log collection to access the logs.  You may notice there are two sets of seemingly identical logs.  One listed under a directory named for a container and one up in the main directory.  This is done in case your step had to be automatically re-run due to any issues and gives the logs of each re-run. The logs in the main directory are the logs for the successful run. In most cases this does not happen, you will just see one directory and one those logs will match the logs in the main directory.  Let’s open the logs labeled node-info.txt and stderr.txt.
274
275 @node-info.txt@ gives us information about detailed information about the virtual machine this step was run on.  The tail end of the log should look like the following:
276
277 <pre><code>Memory Information
278 MemTotal:       64465820 kB
279 MemFree:        61617620 kB
280 MemAvailable:   62590172 kB
281 Buffers:           15872 kB
282 Cached:          1493300 kB
283 SwapCached:            0 kB
284 Active:          1070868 kB
285 Inactive:        1314248 kB
286 Active(anon):     873716 kB
287 Inactive(anon):     8444 kB
288 Active(file):     197152 kB
289 Inactive(file):  1305804 kB
290 Unevictable:           0 kB
291 Mlocked:               0 kB
292 SwapTotal:             0 kB
293 SwapFree:              0 kB
294 Dirty:               952 kB
295 Writeback:             0 kB
296 AnonPages:        874968 kB
297 Mapped:           115352 kB
298 Shmem:              8604 kB
299 Slab:             251844 kB
300 SReclaimable:     106580 kB
301 SUnreclaim:       145264 kB
302 KernelStack:        5584 kB
303 PageTables:         3832 kB
304 NFS_Unstable:          0 kB
305 Bounce:                0 kB
306 WritebackTmp:          0 kB
307 CommitLimit:    32232908 kB
308 Committed_AS:    2076668 kB
309 VmallocTotal:   34359738367 kB
310 VmallocUsed:           0 kB
311 VmallocChunk:          0 kB
312 Percpu:             5120 kB
313 AnonHugePages:    743424 kB
314 ShmemHugePages:        0 kB
315 ShmemPmdMapped:        0 kB
316 HugePages_Total:       0
317 HugePages_Free:        0
318 HugePages_Rsvd:        0
319 HugePages_Surp:        0
320 Hugepagesize:       2048 kB
321 Hugetlb:               0 kB
322 DirectMap4k:      155620 kB
323 DirectMap2M:     6703104 kB
324 DirectMap1G:    58720256 kB
325
326 Disk Space
327 Filesystem      1M-blocks  Used Available Use% Mounted on
328 /dev/nvme1n1p1       7874  1678      5778  23% /
329 /dev/mapper/tmp    381746  1496    380251   1% /tmp
330
331 Disk INodes
332 Filesystem         Inodes IUsed     IFree IUse% Mounted on
333 /dev/nvme1n1p1     516096 42253    473843    9% /
334 /dev/mapper/tmp 195549184 44418 195504766    1% /tmp
335 </code></pre>
336
337 We can see all the details of the virtual machine used for this step, including that it has 16 cores and 64 GIB of RAM.
338
339 @stderr.txt@ gives us everything written to standard error by the programs run in this step.  This step ran successfully so we don’t need to use this to debug our step currently. We are just taking a look for practice.
340
341 The tail end of our log should be similar to the following:
342
343 <pre><code>2020-08-04T04:37:19.674225566Z [main] CMD: /bwa-0.7.17/bwa mem -M -t 16 -R @RG\tID:sample\tSM:sample\tLB:sample\tPL:ILLUMINA\tPU:sample1 -c 250 /keep/18657d75efb4afd31a14bb204d073239+13611/GRCh38_no_alt_plus_hs38d1_analysis_set.fna /keep/a146a06222f9a66b7d141e078fc67660+376237/ERR2122554_1.fastq.gz /keep/a146a06222f9a66b7d141e078fc67660+376237/ERR2122554_2.fastq.gz
344 2020-08-04T04:37:19.674225566Z [main] Real time: 35859.344 sec; CPU: 553120.701 sec
345 </code></pre>
346
347 This is the command we ran to invoke bwa-mem, and the scaling information for running bwa-mem multi-threaded across 16 cores (15.4x).
348
349 We hope that now that you have a bit more familiarity with the logs you can continue to use them to debug and optimize your own workflows as you move forward with using Arvados if your own work in the future.
350
351 h2. 7.  Conclusion
352
353 Thank you for working through this walkthrough tutorial.  Hopefully this tutorial has helped you get a feel for working with Arvados. This tutorial just covered the basic capabilities of Arvados. There are many more capabilities to explore.  Please see the links featured at the end of Section 1 for ways to learn more about Arvados or get help while you are working with Arvados.
354
355 If you would like help setting up your own production instance of Arvados, please contact us at "info@curii.com.":mailto:info@curii.com
356
357 </div>