12183: Fix tests.
[arvados.git] / services / crunch-run / crunchrun.go
1 // Copyright (C) The Arvados Authors. All rights reserved.
2 //
3 // SPDX-License-Identifier: AGPL-3.0
4
5 package main
6
7 import (
8         "bytes"
9         "context"
10         "encoding/json"
11         "errors"
12         "flag"
13         "fmt"
14         "io"
15         "io/ioutil"
16         "log"
17         "os"
18         "os/exec"
19         "os/signal"
20         "path"
21         "path/filepath"
22         "runtime"
23         "runtime/pprof"
24         "sort"
25         "strings"
26         "sync"
27         "syscall"
28         "time"
29
30         "git.curoverse.com/arvados.git/lib/crunchstat"
31         "git.curoverse.com/arvados.git/sdk/go/arvados"
32         "git.curoverse.com/arvados.git/sdk/go/arvadosclient"
33         "git.curoverse.com/arvados.git/sdk/go/keepclient"
34         "git.curoverse.com/arvados.git/sdk/go/manifest"
35
36         dockertypes "github.com/docker/docker/api/types"
37         dockercontainer "github.com/docker/docker/api/types/container"
38         dockernetwork "github.com/docker/docker/api/types/network"
39         dockerclient "github.com/docker/docker/client"
40 )
41
42 // IArvadosClient is the minimal Arvados API methods used by crunch-run.
43 type IArvadosClient interface {
44         Create(resourceType string, parameters arvadosclient.Dict, output interface{}) error
45         Get(resourceType string, uuid string, parameters arvadosclient.Dict, output interface{}) error
46         Update(resourceType string, uuid string, parameters arvadosclient.Dict, output interface{}) error
47         Call(method, resourceType, uuid, action string, parameters arvadosclient.Dict, output interface{}) error
48         CallRaw(method string, resourceType string, uuid string, action string, parameters arvadosclient.Dict) (reader io.ReadCloser, err error)
49         Discovery(key string) (interface{}, error)
50 }
51
52 // ErrCancelled is the error returned when the container is cancelled.
53 var ErrCancelled = errors.New("Cancelled")
54
55 // IKeepClient is the minimal Keep API methods used by crunch-run.
56 type IKeepClient interface {
57         PutHB(hash string, buf []byte) (string, int, error)
58         ManifestFileReader(m manifest.Manifest, filename string) (arvados.File, error)
59         ClearBlockCache()
60 }
61
62 // NewLogWriter is a factory function to create a new log writer.
63 type NewLogWriter func(name string) io.WriteCloser
64
65 type RunArvMount func(args []string, tok string) (*exec.Cmd, error)
66
67 type MkTempDir func(string, string) (string, error)
68
69 // ThinDockerClient is the minimal Docker client interface used by crunch-run.
70 type ThinDockerClient interface {
71         ContainerAttach(ctx context.Context, container string, options dockertypes.ContainerAttachOptions) (dockertypes.HijackedResponse, error)
72         ContainerCreate(ctx context.Context, config *dockercontainer.Config, hostConfig *dockercontainer.HostConfig,
73                 networkingConfig *dockernetwork.NetworkingConfig, containerName string) (dockercontainer.ContainerCreateCreatedBody, error)
74         ContainerStart(ctx context.Context, container string, options dockertypes.ContainerStartOptions) error
75         ContainerStop(ctx context.Context, container string, timeout *time.Duration) error
76         ContainerWait(ctx context.Context, container string, condition dockercontainer.WaitCondition) (<-chan dockercontainer.ContainerWaitOKBody, <-chan error)
77         ImageInspectWithRaw(ctx context.Context, image string) (dockertypes.ImageInspect, []byte, error)
78         ImageLoad(ctx context.Context, input io.Reader, quiet bool) (dockertypes.ImageLoadResponse, error)
79         ImageRemove(ctx context.Context, image string, options dockertypes.ImageRemoveOptions) ([]dockertypes.ImageDeleteResponseItem, error)
80 }
81
82 // ThinDockerClientProxy is a proxy implementation of ThinDockerClient
83 // that executes the docker requests on dockerclient.Client
84 type ThinDockerClientProxy struct {
85         Docker *dockerclient.Client
86 }
87
88 // ContainerAttach invokes dockerclient.Client.ContainerAttach
89 func (proxy ThinDockerClientProxy) ContainerAttach(ctx context.Context, container string, options dockertypes.ContainerAttachOptions) (dockertypes.HijackedResponse, error) {
90         return proxy.Docker.ContainerAttach(ctx, container, options)
91 }
92
93 // ContainerCreate invokes dockerclient.Client.ContainerCreate
94 func (proxy ThinDockerClientProxy) ContainerCreate(ctx context.Context, config *dockercontainer.Config, hostConfig *dockercontainer.HostConfig,
95         networkingConfig *dockernetwork.NetworkingConfig, containerName string) (dockercontainer.ContainerCreateCreatedBody, error) {
96         return proxy.Docker.ContainerCreate(ctx, config, hostConfig, networkingConfig, containerName)
97 }
98
99 // ContainerStart invokes dockerclient.Client.ContainerStart
100 func (proxy ThinDockerClientProxy) ContainerStart(ctx context.Context, container string, options dockertypes.ContainerStartOptions) error {
101         return proxy.Docker.ContainerStart(ctx, container, options)
102 }
103
104 // ContainerStop invokes dockerclient.Client.ContainerStop
105 func (proxy ThinDockerClientProxy) ContainerStop(ctx context.Context, container string, timeout *time.Duration) error {
106         return proxy.Docker.ContainerStop(ctx, container, timeout)
107 }
108
109 // ContainerWait invokes dockerclient.Client.ContainerWait
110 func (proxy ThinDockerClientProxy) ContainerWait(ctx context.Context, container string, condition dockercontainer.WaitCondition) (<-chan dockercontainer.ContainerWaitOKBody, <-chan error) {
111         return proxy.Docker.ContainerWait(ctx, container, condition)
112 }
113
114 // ImageInspectWithRaw invokes dockerclient.Client.ImageInspectWithRaw
115 func (proxy ThinDockerClientProxy) ImageInspectWithRaw(ctx context.Context, image string) (dockertypes.ImageInspect, []byte, error) {
116         return proxy.Docker.ImageInspectWithRaw(ctx, image)
117 }
118
119 // ImageLoad invokes dockerclient.Client.ImageLoad
120 func (proxy ThinDockerClientProxy) ImageLoad(ctx context.Context, input io.Reader, quiet bool) (dockertypes.ImageLoadResponse, error) {
121         return proxy.Docker.ImageLoad(ctx, input, quiet)
122 }
123
124 // ImageRemove invokes dockerclient.Client.ImageRemove
125 func (proxy ThinDockerClientProxy) ImageRemove(ctx context.Context, image string, options dockertypes.ImageRemoveOptions) ([]dockertypes.ImageDeleteResponseItem, error) {
126         return proxy.Docker.ImageRemove(ctx, image, options)
127 }
128
129 // ContainerRunner is the main stateful struct used for a single execution of a
130 // container.
131 type ContainerRunner struct {
132         Docker    ThinDockerClient
133         ArvClient IArvadosClient
134         Kc        IKeepClient
135         arvados.Container
136         ContainerConfig dockercontainer.Config
137         dockercontainer.HostConfig
138         token       string
139         ContainerID string
140         ExitCode    *int
141         NewLogWriter
142         loggingDone   chan bool
143         CrunchLog     *ThrottledLogger
144         Stdout        io.WriteCloser
145         Stderr        io.WriteCloser
146         LogCollection *CollectionWriter
147         LogsPDH       *string
148         RunArvMount
149         MkTempDir
150         ArvMount       *exec.Cmd
151         ArvMountPoint  string
152         HostOutputDir  string
153         CleanupTempDir []string
154         Binds          []string
155         Volumes        map[string]struct{}
156         OutputPDH      *string
157         SigChan        chan os.Signal
158         ArvMountExit   chan error
159         finalState     string
160
161         statLogger   io.WriteCloser
162         statReporter *crunchstat.Reporter
163         statInterval time.Duration
164         cgroupRoot   string
165         // What we expect the container's cgroup parent to be.
166         expectCgroupParent string
167         // What we tell docker to use as the container's cgroup
168         // parent. Note: Ideally we would use the same field for both
169         // expectCgroupParent and setCgroupParent, and just make it
170         // default to "docker". However, when using docker < 1.10 with
171         // systemd, specifying a non-empty cgroup parent (even the
172         // default value "docker") hits a docker bug
173         // (https://github.com/docker/docker/issues/17126). Using two
174         // separate fields makes it possible to use the "expect cgroup
175         // parent to be X" feature even on sites where the "specify
176         // cgroup parent" feature breaks.
177         setCgroupParent string
178
179         cStateLock sync.Mutex
180         cStarted   bool // StartContainer() succeeded
181         cCancelled bool // StopContainer() invoked
182
183         enableNetwork string // one of "default" or "always"
184         networkMode   string // passed through to HostConfig.NetworkMode
185 }
186
187 // setupSignals sets up signal handling to gracefully terminate the underlying
188 // Docker container and update state when receiving a TERM, INT or QUIT signal.
189 func (runner *ContainerRunner) setupSignals() {
190         runner.SigChan = make(chan os.Signal, 1)
191         signal.Notify(runner.SigChan, syscall.SIGTERM)
192         signal.Notify(runner.SigChan, syscall.SIGINT)
193         signal.Notify(runner.SigChan, syscall.SIGQUIT)
194
195         go func(sig chan os.Signal) {
196                 <-sig
197                 runner.stop()
198         }(runner.SigChan)
199 }
200
201 // stop the underlying Docker container.
202 func (runner *ContainerRunner) stop() {
203         runner.cStateLock.Lock()
204         defer runner.cStateLock.Unlock()
205         if runner.cCancelled {
206                 return
207         }
208         runner.cCancelled = true
209         if runner.cStarted {
210                 timeout := time.Duration(10)
211                 err := runner.Docker.ContainerStop(context.TODO(), runner.ContainerID, &(timeout))
212                 if err != nil {
213                         log.Printf("StopContainer failed: %s", err)
214                 }
215         }
216 }
217
218 func (runner *ContainerRunner) teardown() {
219         if runner.SigChan != nil {
220                 signal.Stop(runner.SigChan)
221                 close(runner.SigChan)
222         }
223 }
224
225 // LoadImage determines the docker image id from the container record and
226 // checks if it is available in the local Docker image store.  If not, it loads
227 // the image from Keep.
228 func (runner *ContainerRunner) LoadImage() (err error) {
229
230         runner.CrunchLog.Printf("Fetching Docker image from collection '%s'", runner.Container.ContainerImage)
231
232         var collection arvados.Collection
233         err = runner.ArvClient.Get("collections", runner.Container.ContainerImage, nil, &collection)
234         if err != nil {
235                 return fmt.Errorf("While getting container image collection: %v", err)
236         }
237         manifest := manifest.Manifest{Text: collection.ManifestText}
238         var img, imageID string
239         for ms := range manifest.StreamIter() {
240                 img = ms.FileStreamSegments[0].Name
241                 if !strings.HasSuffix(img, ".tar") {
242                         return fmt.Errorf("First file in the container image collection does not end in .tar")
243                 }
244                 imageID = img[:len(img)-4]
245         }
246
247         runner.CrunchLog.Printf("Using Docker image id '%s'", imageID)
248
249         _, _, err = runner.Docker.ImageInspectWithRaw(context.TODO(), imageID)
250         if err != nil {
251                 runner.CrunchLog.Print("Loading Docker image from keep")
252
253                 var readCloser io.ReadCloser
254                 readCloser, err = runner.Kc.ManifestFileReader(manifest, img)
255                 if err != nil {
256                         return fmt.Errorf("While creating ManifestFileReader for container image: %v", err)
257                 }
258
259                 response, err := runner.Docker.ImageLoad(context.TODO(), readCloser, true)
260                 if err != nil {
261                         return fmt.Errorf("While loading container image into Docker: %v", err)
262                 }
263
264                 defer response.Body.Close()
265                 rbody, err := ioutil.ReadAll(response.Body)
266                 if err != nil {
267                         return fmt.Errorf("Reading response to image load: %v", err)
268                 }
269                 runner.CrunchLog.Printf("Docker response: %s", rbody)
270         } else {
271                 runner.CrunchLog.Print("Docker image is available")
272         }
273
274         runner.ContainerConfig.Image = imageID
275
276         runner.Kc.ClearBlockCache()
277
278         return nil
279 }
280
281 func (runner *ContainerRunner) ArvMountCmd(arvMountCmd []string, token string) (c *exec.Cmd, err error) {
282         c = exec.Command("arv-mount", arvMountCmd...)
283
284         // Copy our environment, but override ARVADOS_API_TOKEN with
285         // the container auth token.
286         c.Env = nil
287         for _, s := range os.Environ() {
288                 if !strings.HasPrefix(s, "ARVADOS_API_TOKEN=") {
289                         c.Env = append(c.Env, s)
290                 }
291         }
292         c.Env = append(c.Env, "ARVADOS_API_TOKEN="+token)
293
294         nt := NewThrottledLogger(runner.NewLogWriter("arv-mount"))
295         c.Stdout = nt
296         c.Stderr = nt
297
298         err = c.Start()
299         if err != nil {
300                 return nil, err
301         }
302
303         statReadme := make(chan bool)
304         runner.ArvMountExit = make(chan error)
305
306         keepStatting := true
307         go func() {
308                 for keepStatting {
309                         time.Sleep(100 * time.Millisecond)
310                         _, err = os.Stat(fmt.Sprintf("%s/by_id/README", runner.ArvMountPoint))
311                         if err == nil {
312                                 keepStatting = false
313                                 statReadme <- true
314                         }
315                 }
316                 close(statReadme)
317         }()
318
319         go func() {
320                 runner.ArvMountExit <- c.Wait()
321                 close(runner.ArvMountExit)
322         }()
323
324         select {
325         case <-statReadme:
326                 break
327         case err := <-runner.ArvMountExit:
328                 runner.ArvMount = nil
329                 keepStatting = false
330                 return nil, err
331         }
332
333         return c, nil
334 }
335
336 func (runner *ContainerRunner) SetupArvMountPoint(prefix string) (err error) {
337         if runner.ArvMountPoint == "" {
338                 runner.ArvMountPoint, err = runner.MkTempDir("", prefix)
339         }
340         return
341 }
342
343 func (runner *ContainerRunner) SetupMounts() (err error) {
344         err = runner.SetupArvMountPoint("keep")
345         if err != nil {
346                 return fmt.Errorf("While creating keep mount temp dir: %v", err)
347         }
348
349         runner.CleanupTempDir = append(runner.CleanupTempDir, runner.ArvMountPoint)
350
351         pdhOnly := true
352         tmpcount := 0
353         arvMountCmd := []string{"--foreground", "--allow-other", "--read-write"}
354
355         if runner.Container.RuntimeConstraints.KeepCacheRAM > 0 {
356                 arvMountCmd = append(arvMountCmd, "--file-cache", fmt.Sprintf("%d", runner.Container.RuntimeConstraints.KeepCacheRAM))
357         }
358
359         collectionPaths := []string{}
360         runner.Binds = nil
361         runner.Volumes = make(map[string]struct{})
362         needCertMount := true
363
364         var binds []string
365         for bind := range runner.Container.Mounts {
366                 binds = append(binds, bind)
367         }
368         sort.Strings(binds)
369
370         for _, bind := range binds {
371                 mnt := runner.Container.Mounts[bind]
372                 if bind == "stdout" || bind == "stderr" {
373                         // Is it a "file" mount kind?
374                         if mnt.Kind != "file" {
375                                 return fmt.Errorf("Unsupported mount kind '%s' for %s. Only 'file' is supported.", mnt.Kind, bind)
376                         }
377
378                         // Does path start with OutputPath?
379                         prefix := runner.Container.OutputPath
380                         if !strings.HasSuffix(prefix, "/") {
381                                 prefix += "/"
382                         }
383                         if !strings.HasPrefix(mnt.Path, prefix) {
384                                 return fmt.Errorf("%s path does not start with OutputPath: %s, %s", strings.Title(bind), mnt.Path, prefix)
385                         }
386                 }
387
388                 if bind == "stdin" {
389                         // Is it a "collection" mount kind?
390                         if mnt.Kind != "collection" && mnt.Kind != "json" {
391                                 return fmt.Errorf("Unsupported mount kind '%s' for stdin. Only 'collection' or 'json' are supported.", mnt.Kind)
392                         }
393                 }
394
395                 if bind == "/etc/arvados/ca-certificates.crt" {
396                         needCertMount = false
397                 }
398
399                 if strings.HasPrefix(bind, runner.Container.OutputPath+"/") && bind != runner.Container.OutputPath+"/" {
400                         if mnt.Kind != "collection" {
401                                 return fmt.Errorf("Only mount points of kind 'collection' are supported underneath the output_path: %v", bind)
402                         }
403                 }
404
405                 switch {
406                 case mnt.Kind == "collection" && bind != "stdin":
407                         var src string
408                         if mnt.UUID != "" && mnt.PortableDataHash != "" {
409                                 return fmt.Errorf("Cannot specify both 'uuid' and 'portable_data_hash' for a collection mount")
410                         }
411                         if mnt.UUID != "" {
412                                 if mnt.Writable {
413                                         return fmt.Errorf("Writing to existing collections currently not permitted.")
414                                 }
415                                 pdhOnly = false
416                                 src = fmt.Sprintf("%s/by_id/%s", runner.ArvMountPoint, mnt.UUID)
417                         } else if mnt.PortableDataHash != "" {
418                                 if mnt.Writable {
419                                         return fmt.Errorf("Can never write to a collection specified by portable data hash")
420                                 }
421                                 idx := strings.Index(mnt.PortableDataHash, "/")
422                                 if idx > 0 {
423                                         mnt.Path = path.Clean(mnt.PortableDataHash[idx:])
424                                         mnt.PortableDataHash = mnt.PortableDataHash[0:idx]
425                                         runner.Container.Mounts[bind] = mnt
426                                 }
427                                 src = fmt.Sprintf("%s/by_id/%s", runner.ArvMountPoint, mnt.PortableDataHash)
428                                 if mnt.Path != "" && mnt.Path != "." {
429                                         if strings.HasPrefix(mnt.Path, "./") {
430                                                 mnt.Path = mnt.Path[2:]
431                                         } else if strings.HasPrefix(mnt.Path, "/") {
432                                                 mnt.Path = mnt.Path[1:]
433                                         }
434                                         src += "/" + mnt.Path
435                                 }
436                         } else {
437                                 src = fmt.Sprintf("%s/tmp%d", runner.ArvMountPoint, tmpcount)
438                                 arvMountCmd = append(arvMountCmd, "--mount-tmp")
439                                 arvMountCmd = append(arvMountCmd, fmt.Sprintf("tmp%d", tmpcount))
440                                 tmpcount += 1
441                         }
442                         if mnt.Writable {
443                                 if bind == runner.Container.OutputPath {
444                                         runner.HostOutputDir = src
445                                 } else if strings.HasPrefix(bind, runner.Container.OutputPath+"/") {
446                                         return fmt.Errorf("Writable mount points are not permitted underneath the output_path: %v", bind)
447                                 }
448                                 runner.Binds = append(runner.Binds, fmt.Sprintf("%s:%s", src, bind))
449                         } else {
450                                 runner.Binds = append(runner.Binds, fmt.Sprintf("%s:%s:ro", src, bind))
451                         }
452                         collectionPaths = append(collectionPaths, src)
453
454                 case mnt.Kind == "tmp":
455                         var tmpdir string
456                         tmpdir, err = runner.MkTempDir("", "")
457                         if err != nil {
458                                 return fmt.Errorf("While creating mount temp dir: %v", err)
459                         }
460                         st, staterr := os.Stat(tmpdir)
461                         if staterr != nil {
462                                 return fmt.Errorf("While Stat on temp dir: %v", staterr)
463                         }
464                         err = os.Chmod(tmpdir, st.Mode()|os.ModeSetgid|0777)
465                         if staterr != nil {
466                                 return fmt.Errorf("While Chmod temp dir: %v", err)
467                         }
468                         runner.CleanupTempDir = append(runner.CleanupTempDir, tmpdir)
469                         runner.Binds = append(runner.Binds, fmt.Sprintf("%s:%s", tmpdir, bind))
470                         if bind == runner.Container.OutputPath {
471                                 runner.HostOutputDir = tmpdir
472                         }
473
474                 case mnt.Kind == "json":
475                         jsondata, err := json.Marshal(mnt.Content)
476                         if err != nil {
477                                 return fmt.Errorf("encoding json data: %v", err)
478                         }
479                         // Create a tempdir with a single file
480                         // (instead of just a tempfile): this way we
481                         // can ensure the file is world-readable
482                         // inside the container, without having to
483                         // make it world-readable on the docker host.
484                         tmpdir, err := runner.MkTempDir("", "")
485                         if err != nil {
486                                 return fmt.Errorf("creating temp dir: %v", err)
487                         }
488                         runner.CleanupTempDir = append(runner.CleanupTempDir, tmpdir)
489                         tmpfn := filepath.Join(tmpdir, "mountdata.json")
490                         err = ioutil.WriteFile(tmpfn, jsondata, 0644)
491                         if err != nil {
492                                 return fmt.Errorf("writing temp file: %v", err)
493                         }
494                         runner.Binds = append(runner.Binds, fmt.Sprintf("%s:%s:ro", tmpfn, bind))
495                 }
496         }
497
498         if runner.HostOutputDir == "" {
499                 return fmt.Errorf("Output path does not correspond to a writable mount point")
500         }
501
502         if wantAPI := runner.Container.RuntimeConstraints.API; needCertMount && wantAPI != nil && *wantAPI {
503                 for _, certfile := range arvadosclient.CertFiles {
504                         _, err := os.Stat(certfile)
505                         if err == nil {
506                                 runner.Binds = append(runner.Binds, fmt.Sprintf("%s:/etc/arvados/ca-certificates.crt:ro", certfile))
507                                 break
508                         }
509                 }
510         }
511
512         if pdhOnly {
513                 arvMountCmd = append(arvMountCmd, "--mount-by-pdh", "by_id")
514         } else {
515                 arvMountCmd = append(arvMountCmd, "--mount-by-id", "by_id")
516         }
517         arvMountCmd = append(arvMountCmd, runner.ArvMountPoint)
518
519         token, err := runner.ContainerToken()
520         if err != nil {
521                 return fmt.Errorf("could not get container token: %s", err)
522         }
523
524         runner.ArvMount, err = runner.RunArvMount(arvMountCmd, token)
525         if err != nil {
526                 return fmt.Errorf("While trying to start arv-mount: %v", err)
527         }
528
529         for _, p := range collectionPaths {
530                 _, err = os.Stat(p)
531                 if err != nil {
532                         return fmt.Errorf("While checking that input files exist: %v", err)
533                 }
534         }
535
536         return nil
537 }
538
539 func (runner *ContainerRunner) ProcessDockerAttach(containerReader io.Reader) {
540         // Handle docker log protocol
541         // https://docs.docker.com/engine/reference/api/docker_remote_api_v1.15/#attach-to-a-container
542
543         header := make([]byte, 8)
544         for {
545                 _, readerr := io.ReadAtLeast(containerReader, header, 8)
546
547                 if readerr == nil {
548                         readsize := int64(header[7]) | (int64(header[6]) << 8) | (int64(header[5]) << 16) | (int64(header[4]) << 24)
549                         if header[0] == 1 {
550                                 // stdout
551                                 _, readerr = io.CopyN(runner.Stdout, containerReader, readsize)
552                         } else {
553                                 // stderr
554                                 _, readerr = io.CopyN(runner.Stderr, containerReader, readsize)
555                         }
556                 }
557
558                 if readerr != nil {
559                         if readerr != io.EOF {
560                                 runner.CrunchLog.Printf("While reading docker logs: %v", readerr)
561                         }
562
563                         closeerr := runner.Stdout.Close()
564                         if closeerr != nil {
565                                 runner.CrunchLog.Printf("While closing stdout logs: %v", closeerr)
566                         }
567
568                         closeerr = runner.Stderr.Close()
569                         if closeerr != nil {
570                                 runner.CrunchLog.Printf("While closing stderr logs: %v", closeerr)
571                         }
572
573                         if runner.statReporter != nil {
574                                 runner.statReporter.Stop()
575                                 closeerr = runner.statLogger.Close()
576                                 if closeerr != nil {
577                                         runner.CrunchLog.Printf("While closing crunchstat logs: %v", closeerr)
578                                 }
579                         }
580
581                         runner.loggingDone <- true
582                         close(runner.loggingDone)
583                         return
584                 }
585         }
586 }
587
588 func (runner *ContainerRunner) StartCrunchstat() {
589         runner.statLogger = NewThrottledLogger(runner.NewLogWriter("crunchstat"))
590         runner.statReporter = &crunchstat.Reporter{
591                 CID:          runner.ContainerID,
592                 Logger:       log.New(runner.statLogger, "", 0),
593                 CgroupParent: runner.expectCgroupParent,
594                 CgroupRoot:   runner.cgroupRoot,
595                 PollPeriod:   runner.statInterval,
596         }
597         runner.statReporter.Start()
598 }
599
600 type infoCommand struct {
601         label string
602         cmd   []string
603 }
604
605 // Gather node information and store it on the log for debugging
606 // purposes.
607 func (runner *ContainerRunner) LogNodeInfo() (err error) {
608         w := runner.NewLogWriter("node-info")
609         logger := log.New(w, "node-info", 0)
610
611         commands := []infoCommand{
612                 {
613                         label: "Host Information",
614                         cmd:   []string{"uname", "-a"},
615                 },
616                 {
617                         label: "CPU Information",
618                         cmd:   []string{"cat", "/proc/cpuinfo"},
619                 },
620                 {
621                         label: "Memory Information",
622                         cmd:   []string{"cat", "/proc/meminfo"},
623                 },
624                 {
625                         label: "Disk Space",
626                         cmd:   []string{"df", "-m", "/", os.TempDir()},
627                 },
628                 {
629                         label: "Disk INodes",
630                         cmd:   []string{"df", "-i", "/", os.TempDir()},
631                 },
632         }
633
634         // Run commands with informational output to be logged.
635         var out []byte
636         for _, command := range commands {
637                 out, err = exec.Command(command.cmd[0], command.cmd[1:]...).CombinedOutput()
638                 if err != nil {
639                         return fmt.Errorf("While running command %q: %v",
640                                 command.cmd, err)
641                 }
642                 logger.Println(command.label)
643                 for _, line := range strings.Split(string(out), "\n") {
644                         logger.Println(" ", line)
645                 }
646         }
647
648         err = w.Close()
649         if err != nil {
650                 return fmt.Errorf("While closing node-info logs: %v", err)
651         }
652         return nil
653 }
654
655 // Get and save the raw JSON container record from the API server
656 func (runner *ContainerRunner) LogContainerRecord() (err error) {
657         w := &ArvLogWriter{
658                 ArvClient:     runner.ArvClient,
659                 UUID:          runner.Container.UUID,
660                 loggingStream: "container",
661                 writeCloser:   runner.LogCollection.Open("container.json"),
662         }
663
664         // Get Container record JSON from the API Server
665         reader, err := runner.ArvClient.CallRaw("GET", "containers", runner.Container.UUID, "", nil)
666         if err != nil {
667                 return fmt.Errorf("While retrieving container record from the API server: %v", err)
668         }
669         defer reader.Close()
670
671         dec := json.NewDecoder(reader)
672         dec.UseNumber()
673         var cr map[string]interface{}
674         if err = dec.Decode(&cr); err != nil {
675                 return fmt.Errorf("While decoding the container record JSON response: %v", err)
676         }
677         // Re-encode it using indentation to improve readability
678         enc := json.NewEncoder(w)
679         enc.SetIndent("", "    ")
680         if err = enc.Encode(cr); err != nil {
681                 return fmt.Errorf("While logging the JSON container record: %v", err)
682         }
683         err = w.Close()
684         if err != nil {
685                 return fmt.Errorf("While closing container.json log: %v", err)
686         }
687         return nil
688 }
689
690 // AttachStreams connects the docker container stdin, stdout and stderr logs
691 // to the Arvados logger which logs to Keep and the API server logs table.
692 func (runner *ContainerRunner) AttachStreams() (err error) {
693
694         runner.CrunchLog.Print("Attaching container streams")
695
696         // If stdin mount is provided, attach it to the docker container
697         var stdinRdr arvados.File
698         var stdinJson []byte
699         if stdinMnt, ok := runner.Container.Mounts["stdin"]; ok {
700                 if stdinMnt.Kind == "collection" {
701                         var stdinColl arvados.Collection
702                         collId := stdinMnt.UUID
703                         if collId == "" {
704                                 collId = stdinMnt.PortableDataHash
705                         }
706                         err = runner.ArvClient.Get("collections", collId, nil, &stdinColl)
707                         if err != nil {
708                                 return fmt.Errorf("While getting stding collection: %v", err)
709                         }
710
711                         stdinRdr, err = runner.Kc.ManifestFileReader(manifest.Manifest{Text: stdinColl.ManifestText}, stdinMnt.Path)
712                         if os.IsNotExist(err) {
713                                 return fmt.Errorf("stdin collection path not found: %v", stdinMnt.Path)
714                         } else if err != nil {
715                                 return fmt.Errorf("While getting stdin collection path %v: %v", stdinMnt.Path, err)
716                         }
717                 } else if stdinMnt.Kind == "json" {
718                         stdinJson, err = json.Marshal(stdinMnt.Content)
719                         if err != nil {
720                                 return fmt.Errorf("While encoding stdin json data: %v", err)
721                         }
722                 }
723         }
724
725         stdinUsed := stdinRdr != nil || len(stdinJson) != 0
726         response, err := runner.Docker.ContainerAttach(context.TODO(), runner.ContainerID,
727                 dockertypes.ContainerAttachOptions{Stream: true, Stdin: stdinUsed, Stdout: true, Stderr: true})
728         if err != nil {
729                 return fmt.Errorf("While attaching container stdout/stderr streams: %v", err)
730         }
731
732         runner.loggingDone = make(chan bool)
733
734         if stdoutMnt, ok := runner.Container.Mounts["stdout"]; ok {
735                 stdoutFile, err := runner.getStdoutFile(stdoutMnt.Path)
736                 if err != nil {
737                         return err
738                 }
739                 runner.Stdout = stdoutFile
740         } else {
741                 runner.Stdout = NewThrottledLogger(runner.NewLogWriter("stdout"))
742         }
743
744         if stderrMnt, ok := runner.Container.Mounts["stderr"]; ok {
745                 stderrFile, err := runner.getStdoutFile(stderrMnt.Path)
746                 if err != nil {
747                         return err
748                 }
749                 runner.Stderr = stderrFile
750         } else {
751                 runner.Stderr = NewThrottledLogger(runner.NewLogWriter("stderr"))
752         }
753
754         if stdinRdr != nil {
755                 go func() {
756                         _, err := io.Copy(response.Conn, stdinRdr)
757                         if err != nil {
758                                 runner.CrunchLog.Print("While writing stdin collection to docker container %q", err)
759                                 runner.stop()
760                         }
761                         stdinRdr.Close()
762                         response.CloseWrite()
763                 }()
764         } else if len(stdinJson) != 0 {
765                 go func() {
766                         _, err := io.Copy(response.Conn, bytes.NewReader(stdinJson))
767                         if err != nil {
768                                 runner.CrunchLog.Print("While writing stdin json to docker container %q", err)
769                                 runner.stop()
770                         }
771                         response.CloseWrite()
772                 }()
773         }
774
775         go runner.ProcessDockerAttach(response.Reader)
776
777         return nil
778 }
779
780 func (runner *ContainerRunner) getStdoutFile(mntPath string) (*os.File, error) {
781         stdoutPath := mntPath[len(runner.Container.OutputPath):]
782         index := strings.LastIndex(stdoutPath, "/")
783         if index > 0 {
784                 subdirs := stdoutPath[:index]
785                 if subdirs != "" {
786                         st, err := os.Stat(runner.HostOutputDir)
787                         if err != nil {
788                                 return nil, fmt.Errorf("While Stat on temp dir: %v", err)
789                         }
790                         stdoutPath := filepath.Join(runner.HostOutputDir, subdirs)
791                         err = os.MkdirAll(stdoutPath, st.Mode()|os.ModeSetgid|0777)
792                         if err != nil {
793                                 return nil, fmt.Errorf("While MkdirAll %q: %v", stdoutPath, err)
794                         }
795                 }
796         }
797         stdoutFile, err := os.Create(filepath.Join(runner.HostOutputDir, stdoutPath))
798         if err != nil {
799                 return nil, fmt.Errorf("While creating file %q: %v", stdoutPath, err)
800         }
801
802         return stdoutFile, nil
803 }
804
805 // CreateContainer creates the docker container.
806 func (runner *ContainerRunner) CreateContainer() error {
807         runner.CrunchLog.Print("Creating Docker container")
808
809         runner.ContainerConfig.Cmd = runner.Container.Command
810         if runner.Container.Cwd != "." {
811                 runner.ContainerConfig.WorkingDir = runner.Container.Cwd
812         }
813
814         for k, v := range runner.Container.Environment {
815                 runner.ContainerConfig.Env = append(runner.ContainerConfig.Env, k+"="+v)
816         }
817
818         runner.ContainerConfig.Volumes = runner.Volumes
819
820         runner.HostConfig = dockercontainer.HostConfig{
821                 Binds: runner.Binds,
822                 LogConfig: dockercontainer.LogConfig{
823                         Type: "none",
824                 },
825                 Resources: dockercontainer.Resources{
826                         CgroupParent: runner.setCgroupParent,
827                 },
828         }
829
830         if wantAPI := runner.Container.RuntimeConstraints.API; wantAPI != nil && *wantAPI {
831                 tok, err := runner.ContainerToken()
832                 if err != nil {
833                         return err
834                 }
835                 runner.ContainerConfig.Env = append(runner.ContainerConfig.Env,
836                         "ARVADOS_API_TOKEN="+tok,
837                         "ARVADOS_API_HOST="+os.Getenv("ARVADOS_API_HOST"),
838                         "ARVADOS_API_HOST_INSECURE="+os.Getenv("ARVADOS_API_HOST_INSECURE"),
839                 )
840                 runner.HostConfig.NetworkMode = dockercontainer.NetworkMode(runner.networkMode)
841         } else {
842                 if runner.enableNetwork == "always" {
843                         runner.HostConfig.NetworkMode = dockercontainer.NetworkMode(runner.networkMode)
844                 } else {
845                         runner.HostConfig.NetworkMode = dockercontainer.NetworkMode("none")
846                 }
847         }
848
849         _, stdinUsed := runner.Container.Mounts["stdin"]
850         runner.ContainerConfig.OpenStdin = stdinUsed
851         runner.ContainerConfig.StdinOnce = stdinUsed
852         runner.ContainerConfig.AttachStdin = stdinUsed
853         runner.ContainerConfig.AttachStdout = true
854         runner.ContainerConfig.AttachStderr = true
855
856         createdBody, err := runner.Docker.ContainerCreate(context.TODO(), &runner.ContainerConfig, &runner.HostConfig, nil, runner.Container.UUID)
857         if err != nil {
858                 return fmt.Errorf("While creating container: %v", err)
859         }
860
861         runner.ContainerID = createdBody.ID
862
863         return runner.AttachStreams()
864 }
865
866 // StartContainer starts the docker container created by CreateContainer.
867 func (runner *ContainerRunner) StartContainer() error {
868         runner.CrunchLog.Printf("Starting Docker container id '%s'", runner.ContainerID)
869         runner.cStateLock.Lock()
870         defer runner.cStateLock.Unlock()
871         if runner.cCancelled {
872                 return ErrCancelled
873         }
874         err := runner.Docker.ContainerStart(context.TODO(), runner.ContainerID,
875                 dockertypes.ContainerStartOptions{})
876         if err != nil {
877                 var advice string
878                 if strings.Contains(err.Error(), "no such file or directory") {
879                         advice = fmt.Sprintf("\nPossible causes: command %q is missing, the interpreter given in #! is missing, or script has Windows line endings.", runner.Container.Command[0])
880                 }
881                 return fmt.Errorf("could not start container: %v%s", err, advice)
882         }
883         runner.cStarted = true
884         return nil
885 }
886
887 // WaitFinish waits for the container to terminate, capture the exit code, and
888 // close the stdout/stderr logging.
889 func (runner *ContainerRunner) WaitFinish() (err error) {
890         runner.CrunchLog.Print("Waiting for container to finish")
891
892         waitOk, waitErr := runner.Docker.ContainerWait(context.TODO(), runner.ContainerID, "not-running")
893
894         var waitBody dockercontainer.ContainerWaitOKBody
895         select {
896         case waitBody = <-waitOk:
897         case err = <-waitErr:
898         }
899
900         if err != nil {
901                 return fmt.Errorf("container wait: %v", err)
902         }
903
904         runner.CrunchLog.Printf("Container exited with code: %v", waitBody.StatusCode)
905         code := int(waitBody.StatusCode)
906         runner.ExitCode = &code
907
908         waitMount := runner.ArvMountExit
909         select {
910         case err = <-waitMount:
911                 runner.CrunchLog.Printf("arv-mount exited before container finished: %v", err)
912                 waitMount = nil
913                 runner.stop()
914         default:
915         }
916
917         // wait for stdout/stderr to complete
918         <-runner.loggingDone
919
920         return nil
921 }
922
923 func (runner *ContainerRunner) derefOutputSymlink(path string, startinfo os.FileInfo) (tgt string, readlinktgt string, info os.FileInfo, err error) {
924         // Follow symlinks if necessary
925         info = startinfo
926         tgt = path
927         readlinktgt = ""
928         nextlink := path
929         for followed := 0; info.Mode()&os.ModeSymlink != 0; followed++ {
930                 if followed >= 32 {
931                         // Got stuck in a loop or just a pathological number of links, give up.
932                         err = fmt.Errorf("Followed too many symlinks from path %q", path)
933                         return
934                 }
935
936                 readlinktgt, err = os.Readlink(nextlink)
937                 if err != nil {
938                         return
939                 }
940
941                 tgt = readlinktgt
942                 if !strings.HasPrefix(tgt, "/") {
943                         // Relative symlink, resolve it to host path
944                         tgt = filepath.Join(filepath.Dir(path), tgt)
945                 }
946                 if strings.HasPrefix(tgt, runner.Container.OutputPath+"/") && !strings.HasPrefix(tgt, runner.HostOutputDir+"/") {
947                         // Absolute symlink to container output path, adjust it to host output path.
948                         tgt = filepath.Join(runner.HostOutputDir, tgt[len(runner.Container.OutputPath):])
949                 }
950                 if !strings.HasPrefix(tgt, runner.HostOutputDir+"/") {
951                         // After dereferencing, symlink target must either be
952                         // within output directory, or must point to a
953                         // collection mount.
954                         break
955                 }
956
957                 info, err = os.Lstat(tgt)
958                 if err != nil {
959                         // tgt
960                         err = fmt.Errorf("Symlink in output %q points to invalid location %q, must exist, be readable, and point to path within the output directory.",
961                                 path[len(runner.HostOutputDir):], readlinktgt)
962                         return
963                 }
964
965                 nextlink = tgt
966         }
967
968         return
969 }
970
971 // UploadFile uploads files within the output directory, with special handling
972 // for symlinks. If the symlink leads to a keep mount, copy the manifest text
973 // from the keep mount into the output manifestText.  Ensure that whether
974 // symlinks are relative or absolute, they must remain within the output
975 // directory.
976 //
977 // Assumes initial value of "path" is absolute, and located within runner.HostOutputDir.
978 func (runner *ContainerRunner) UploadOutputFile(
979         path string,
980         info os.FileInfo,
981         infoerr error,
982         binds []string,
983         walkUpload *WalkUpload,
984         relocateFrom string,
985         relocateTo string) (manifestText string, err error) {
986
987         if info.Mode().IsDir() {
988                 return
989         }
990
991         if infoerr != nil {
992                 return "", infoerr
993         }
994
995         // When following symlinks, the source path may need to be logically
996         // relocated to some other path within the output collection.  Remove
997         // the relocateFrom prefix and replace it with relocateTo.
998         relocated := relocateTo + path[len(relocateFrom):]
999
1000         tgt, readlinktgt, info, derefErr := runner.derefOutputSymlink(path, info)
1001         if derefErr != nil {
1002                 return "", derefErr
1003         }
1004
1005         // go through mounts and try reverse map to collection reference
1006         for _, bind := range binds {
1007                 mnt := runner.Container.Mounts[bind]
1008                 if tgt == bind || strings.HasPrefix(tgt, bind+"/") {
1009                         // get path relative to bind
1010                         targetSuffix := tgt[len(bind):]
1011
1012                         // Copy mount and adjust the path to add path relative to the bind
1013                         adjustedMount := mnt
1014                         adjustedMount.Path = filepath.Join(adjustedMount.Path, targetSuffix)
1015
1016                         // Terminates in this keep mount, so add the
1017                         // manifest text at appropriate location.
1018                         outputSuffix := path[len(runner.HostOutputDir):]
1019                         manifestText, err = runner.getCollectionManifestForPath(adjustedMount, outputSuffix)
1020                         return
1021                 }
1022         }
1023
1024         // If target is not a collection mount, it must be located within the
1025         // output directory, otherwise it is an error.
1026         if !strings.HasPrefix(tgt, runner.HostOutputDir+"/") {
1027                 err = fmt.Errorf("Symlink in output %q points to invalid location %q, must point to path within the output directory.",
1028                         path[len(runner.HostOutputDir):], readlinktgt)
1029                 return
1030         }
1031
1032         if info.Mode().IsRegular() {
1033                 return "", walkUpload.UploadFile(relocated, tgt)
1034         }
1035
1036         if info.Mode().IsDir() {
1037                 // Symlink leads to directory.  Walk() doesn't follow
1038                 // directory symlinks, so we walk the target directory
1039                 // instead.  Within the walk, file paths are relocated
1040                 // so they appear under the original symlink path.
1041                 err = filepath.Walk(tgt, func(walkpath string, walkinfo os.FileInfo, walkerr error) error {
1042                         var m string
1043                         m, walkerr = runner.UploadOutputFile(walkpath, walkinfo, walkerr, binds, walkUpload, tgt, relocated)
1044                         if walkerr == nil {
1045                                 manifestText = manifestText + m
1046                         }
1047                         return walkerr
1048                 })
1049                 return
1050         }
1051
1052         return
1053 }
1054
1055 // HandleOutput sets the output, unmounts the FUSE mount, and deletes temporary directories
1056 func (runner *ContainerRunner) CaptureOutput() error {
1057         if runner.finalState != "Complete" {
1058                 return nil
1059         }
1060
1061         if wantAPI := runner.Container.RuntimeConstraints.API; wantAPI != nil && *wantAPI {
1062                 // Output may have been set directly by the container, so
1063                 // refresh the container record to check.
1064                 err := runner.ArvClient.Get("containers", runner.Container.UUID,
1065                         nil, &runner.Container)
1066                 if err != nil {
1067                         return err
1068                 }
1069                 if runner.Container.Output != "" {
1070                         // Container output is already set.
1071                         runner.OutputPDH = &runner.Container.Output
1072                         return nil
1073                 }
1074         }
1075
1076         if runner.HostOutputDir == "" {
1077                 return nil
1078         }
1079
1080         _, err := os.Stat(runner.HostOutputDir)
1081         if err != nil {
1082                 return fmt.Errorf("While checking host output path: %v", err)
1083         }
1084
1085         // Pre-populate output from the configured mount points
1086         var binds []string
1087         for bind, mnt := range runner.Container.Mounts {
1088                 if mnt.Kind == "collection" {
1089                         binds = append(binds, bind)
1090                 }
1091         }
1092         sort.Strings(binds)
1093
1094         var manifestText string
1095
1096         collectionMetafile := fmt.Sprintf("%s/.arvados#collection", runner.HostOutputDir)
1097         _, err = os.Stat(collectionMetafile)
1098         if err != nil {
1099                 // Regular directory
1100
1101                 cw := CollectionWriter{0, runner.Kc, nil, nil, sync.Mutex{}}
1102                 walkUpload := cw.BeginUpload(runner.HostOutputDir, runner.CrunchLog.Logger)
1103
1104                 var m string
1105                 err = filepath.Walk(runner.HostOutputDir, func(path string, info os.FileInfo, err error) error {
1106                         m, err = runner.UploadOutputFile(path, info, err, binds, walkUpload, "", "")
1107                         if err == nil {
1108                                 manifestText = manifestText + m
1109                         }
1110                         return err
1111                 })
1112
1113                 cw.EndUpload(walkUpload)
1114
1115                 if err != nil {
1116                         return fmt.Errorf("While uploading output files: %v", err)
1117                 }
1118
1119                 m, err = cw.ManifestText()
1120                 manifestText = manifestText + m
1121                 if err != nil {
1122                         return fmt.Errorf("While uploading output files: %v", err)
1123                 }
1124         } else {
1125                 // FUSE mount directory
1126                 file, openerr := os.Open(collectionMetafile)
1127                 if openerr != nil {
1128                         return fmt.Errorf("While opening FUSE metafile: %v", err)
1129                 }
1130                 defer file.Close()
1131
1132                 var rec arvados.Collection
1133                 err = json.NewDecoder(file).Decode(&rec)
1134                 if err != nil {
1135                         return fmt.Errorf("While reading FUSE metafile: %v", err)
1136                 }
1137                 manifestText = rec.ManifestText
1138         }
1139
1140         for _, bind := range binds {
1141                 mnt := runner.Container.Mounts[bind]
1142
1143                 bindSuffix := strings.TrimPrefix(bind, runner.Container.OutputPath)
1144
1145                 if bindSuffix == bind || len(bindSuffix) <= 0 {
1146                         // either does not start with OutputPath or is OutputPath itself
1147                         continue
1148                 }
1149
1150                 if mnt.ExcludeFromOutput == true {
1151                         continue
1152                 }
1153
1154                 // append to manifest_text
1155                 m, err := runner.getCollectionManifestForPath(mnt, bindSuffix)
1156                 if err != nil {
1157                         return err
1158                 }
1159
1160                 manifestText = manifestText + m
1161         }
1162
1163         // Save output
1164         var response arvados.Collection
1165         manifest := manifest.Manifest{Text: manifestText}
1166         manifestText = manifest.Extract(".", ".").Text
1167         err = runner.ArvClient.Create("collections",
1168                 arvadosclient.Dict{
1169                         "ensure_unique_name": true,
1170                         "collection": arvadosclient.Dict{
1171                                 "is_trashed":    true,
1172                                 "name":          "output for " + runner.Container.UUID,
1173                                 "manifest_text": manifestText}},
1174                 &response)
1175         if err != nil {
1176                 return fmt.Errorf("While creating output collection: %v", err)
1177         }
1178         runner.OutputPDH = &response.PortableDataHash
1179         return nil
1180 }
1181
1182 var outputCollections = make(map[string]arvados.Collection)
1183
1184 // Fetch the collection for the mnt.PortableDataHash
1185 // Return the manifest_text fragment corresponding to the specified mnt.Path
1186 //  after making any required updates.
1187 //  Ex:
1188 //    If mnt.Path is not specified,
1189 //      return the entire manifest_text after replacing any "." with bindSuffix
1190 //    If mnt.Path corresponds to one stream,
1191 //      return the manifest_text for that stream after replacing that stream name with bindSuffix
1192 //    Otherwise, check if a filename in any one stream is being sought. Return the manifest_text
1193 //      for that stream after replacing stream name with bindSuffix minus the last word
1194 //      and the file name with last word of the bindSuffix
1195 //  Allowed path examples:
1196 //    "path":"/"
1197 //    "path":"/subdir1"
1198 //    "path":"/subdir1/subdir2"
1199 //    "path":"/subdir/filename" etc
1200 func (runner *ContainerRunner) getCollectionManifestForPath(mnt arvados.Mount, bindSuffix string) (string, error) {
1201         collection := outputCollections[mnt.PortableDataHash]
1202         if collection.PortableDataHash == "" {
1203                 err := runner.ArvClient.Get("collections", mnt.PortableDataHash, nil, &collection)
1204                 if err != nil {
1205                         return "", fmt.Errorf("While getting collection for %v: %v", mnt.PortableDataHash, err)
1206                 }
1207                 outputCollections[mnt.PortableDataHash] = collection
1208         }
1209
1210         if collection.ManifestText == "" {
1211                 runner.CrunchLog.Printf("No manifest text for collection %v", collection.PortableDataHash)
1212                 return "", nil
1213         }
1214
1215         mft := manifest.Manifest{Text: collection.ManifestText}
1216         extracted := mft.Extract(mnt.Path, bindSuffix)
1217         if extracted.Err != nil {
1218                 return "", fmt.Errorf("Error parsing manifest for %v: %v", mnt.PortableDataHash, extracted.Err.Error())
1219         }
1220         return extracted.Text, nil
1221 }
1222
1223 func (runner *ContainerRunner) CleanupDirs() {
1224         if runner.ArvMount != nil {
1225                 umount := exec.Command("fusermount", "-z", "-u", runner.ArvMountPoint)
1226                 umnterr := umount.Run()
1227                 if umnterr != nil {
1228                         runner.CrunchLog.Printf("While running fusermount: %v", umnterr)
1229                 }
1230
1231                 mnterr := <-runner.ArvMountExit
1232                 if mnterr != nil {
1233                         runner.CrunchLog.Printf("Arv-mount exit error: %v", mnterr)
1234                 }
1235         }
1236
1237         for _, tmpdir := range runner.CleanupTempDir {
1238                 rmerr := os.RemoveAll(tmpdir)
1239                 if rmerr != nil {
1240                         runner.CrunchLog.Printf("While cleaning up temporary directory %s: %v", tmpdir, rmerr)
1241                 }
1242         }
1243 }
1244
1245 // CommitLogs posts the collection containing the final container logs.
1246 func (runner *ContainerRunner) CommitLogs() error {
1247         runner.CrunchLog.Print(runner.finalState)
1248         runner.CrunchLog.Close()
1249
1250         // Closing CrunchLog above allows it to be committed to Keep at this
1251         // point, but re-open crunch log with ArvClient in case there are any
1252         // other further (such as failing to write the log to Keep!) while
1253         // shutting down
1254         runner.CrunchLog = NewThrottledLogger(&ArvLogWriter{ArvClient: runner.ArvClient,
1255                 UUID: runner.Container.UUID, loggingStream: "crunch-run", writeCloser: nil})
1256
1257         if runner.LogsPDH != nil {
1258                 // If we have already assigned something to LogsPDH,
1259                 // we must be closing the re-opened log, which won't
1260                 // end up getting attached to the container record and
1261                 // therefore doesn't need to be saved as a collection
1262                 // -- it exists only to send logs to other channels.
1263                 return nil
1264         }
1265
1266         mt, err := runner.LogCollection.ManifestText()
1267         if err != nil {
1268                 return fmt.Errorf("While creating log manifest: %v", err)
1269         }
1270
1271         var response arvados.Collection
1272         err = runner.ArvClient.Create("collections",
1273                 arvadosclient.Dict{
1274                         "ensure_unique_name": true,
1275                         "collection": arvadosclient.Dict{
1276                                 "is_trashed":    true,
1277                                 "name":          "logs for " + runner.Container.UUID,
1278                                 "manifest_text": mt}},
1279                 &response)
1280         if err != nil {
1281                 return fmt.Errorf("While creating log collection: %v", err)
1282         }
1283         runner.LogsPDH = &response.PortableDataHash
1284         return nil
1285 }
1286
1287 // UpdateContainerRunning updates the container state to "Running"
1288 func (runner *ContainerRunner) UpdateContainerRunning() error {
1289         runner.cStateLock.Lock()
1290         defer runner.cStateLock.Unlock()
1291         if runner.cCancelled {
1292                 return ErrCancelled
1293         }
1294         return runner.ArvClient.Update("containers", runner.Container.UUID,
1295                 arvadosclient.Dict{"container": arvadosclient.Dict{"state": "Running"}}, nil)
1296 }
1297
1298 // ContainerToken returns the api_token the container (and any
1299 // arv-mount processes) are allowed to use.
1300 func (runner *ContainerRunner) ContainerToken() (string, error) {
1301         if runner.token != "" {
1302                 return runner.token, nil
1303         }
1304
1305         var auth arvados.APIClientAuthorization
1306         err := runner.ArvClient.Call("GET", "containers", runner.Container.UUID, "auth", nil, &auth)
1307         if err != nil {
1308                 return "", err
1309         }
1310         runner.token = auth.APIToken
1311         return runner.token, nil
1312 }
1313
1314 // UpdateContainerComplete updates the container record state on API
1315 // server to "Complete" or "Cancelled"
1316 func (runner *ContainerRunner) UpdateContainerFinal() error {
1317         update := arvadosclient.Dict{}
1318         update["state"] = runner.finalState
1319         if runner.LogsPDH != nil {
1320                 update["log"] = *runner.LogsPDH
1321         }
1322         if runner.finalState == "Complete" {
1323                 if runner.ExitCode != nil {
1324                         update["exit_code"] = *runner.ExitCode
1325                 }
1326                 if runner.OutputPDH != nil {
1327                         update["output"] = *runner.OutputPDH
1328                 }
1329         }
1330         return runner.ArvClient.Update("containers", runner.Container.UUID, arvadosclient.Dict{"container": update}, nil)
1331 }
1332
1333 // IsCancelled returns the value of Cancelled, with goroutine safety.
1334 func (runner *ContainerRunner) IsCancelled() bool {
1335         runner.cStateLock.Lock()
1336         defer runner.cStateLock.Unlock()
1337         return runner.cCancelled
1338 }
1339
1340 // NewArvLogWriter creates an ArvLogWriter
1341 func (runner *ContainerRunner) NewArvLogWriter(name string) io.WriteCloser {
1342         return &ArvLogWriter{ArvClient: runner.ArvClient, UUID: runner.Container.UUID, loggingStream: name,
1343                 writeCloser: runner.LogCollection.Open(name + ".txt")}
1344 }
1345
1346 // Run the full container lifecycle.
1347 func (runner *ContainerRunner) Run() (err error) {
1348         runner.CrunchLog.Printf("Executing container '%s'", runner.Container.UUID)
1349
1350         hostname, hosterr := os.Hostname()
1351         if hosterr != nil {
1352                 runner.CrunchLog.Printf("Error getting hostname '%v'", hosterr)
1353         } else {
1354                 runner.CrunchLog.Printf("Executing on host '%s'", hostname)
1355         }
1356
1357         // Clean up temporary directories _after_ finalizing
1358         // everything (if we've made any by then)
1359         defer runner.CleanupDirs()
1360
1361         runner.finalState = "Queued"
1362
1363         defer func() {
1364                 // checkErr prints e (unless it's nil) and sets err to
1365                 // e (unless err is already non-nil). Thus, if err
1366                 // hasn't already been assigned when Run() returns,
1367                 // this cleanup func will cause Run() to return the
1368                 // first non-nil error that is passed to checkErr().
1369                 checkErr := func(e error) {
1370                         if e == nil {
1371                                 return
1372                         }
1373                         runner.CrunchLog.Print(e)
1374                         if err == nil {
1375                                 err = e
1376                         }
1377                         if runner.finalState == "Complete" {
1378                                 // There was an error in the finalization.
1379                                 runner.finalState = "Cancelled"
1380                         }
1381                 }
1382
1383                 // Log the error encountered in Run(), if any
1384                 checkErr(err)
1385
1386                 if runner.finalState == "Queued" {
1387                         runner.CrunchLog.Close()
1388                         runner.UpdateContainerFinal()
1389                         return
1390                 }
1391
1392                 if runner.IsCancelled() {
1393                         runner.finalState = "Cancelled"
1394                         // but don't return yet -- we still want to
1395                         // capture partial output and write logs
1396                 }
1397
1398                 checkErr(runner.CaptureOutput())
1399                 checkErr(runner.CommitLogs())
1400                 checkErr(runner.UpdateContainerFinal())
1401
1402                 // The real log is already closed, but then we opened
1403                 // a new one in case we needed to log anything while
1404                 // finalizing.
1405                 runner.CrunchLog.Close()
1406
1407                 runner.teardown()
1408         }()
1409
1410         err = runner.fetchContainerRecord()
1411         if err != nil {
1412                 return
1413         }
1414
1415         // setup signal handling
1416         runner.setupSignals()
1417
1418         // check for and/or load image
1419         err = runner.LoadImage()
1420         if err != nil {
1421                 runner.finalState = "Cancelled"
1422                 err = fmt.Errorf("While loading container image: %v", err)
1423                 return
1424         }
1425
1426         // set up FUSE mount and binds
1427         err = runner.SetupMounts()
1428         if err != nil {
1429                 runner.finalState = "Cancelled"
1430                 err = fmt.Errorf("While setting up mounts: %v", err)
1431                 return
1432         }
1433
1434         err = runner.CreateContainer()
1435         if err != nil {
1436                 return
1437         }
1438
1439         // Gather and record node information
1440         err = runner.LogNodeInfo()
1441         if err != nil {
1442                 return
1443         }
1444         // Save container.json record on log collection
1445         err = runner.LogContainerRecord()
1446         if err != nil {
1447                 return
1448         }
1449
1450         runner.StartCrunchstat()
1451
1452         if runner.IsCancelled() {
1453                 return
1454         }
1455
1456         err = runner.UpdateContainerRunning()
1457         if err != nil {
1458                 return
1459         }
1460         runner.finalState = "Cancelled"
1461
1462         err = runner.StartContainer()
1463         if err != nil {
1464                 return
1465         }
1466
1467         err = runner.WaitFinish()
1468         if err == nil {
1469                 runner.finalState = "Complete"
1470         }
1471         return
1472 }
1473
1474 // Fetch the current container record (uuid = runner.Container.UUID)
1475 // into runner.Container.
1476 func (runner *ContainerRunner) fetchContainerRecord() error {
1477         reader, err := runner.ArvClient.CallRaw("GET", "containers", runner.Container.UUID, "", nil)
1478         if err != nil {
1479                 return fmt.Errorf("error fetching container record: %v", err)
1480         }
1481         defer reader.Close()
1482
1483         dec := json.NewDecoder(reader)
1484         dec.UseNumber()
1485         err = dec.Decode(&runner.Container)
1486         if err != nil {
1487                 return fmt.Errorf("error decoding container record: %v", err)
1488         }
1489         return nil
1490 }
1491
1492 // NewContainerRunner creates a new container runner.
1493 func NewContainerRunner(api IArvadosClient,
1494         kc IKeepClient,
1495         docker ThinDockerClient,
1496         containerUUID string) *ContainerRunner {
1497
1498         cr := &ContainerRunner{ArvClient: api, Kc: kc, Docker: docker}
1499         cr.NewLogWriter = cr.NewArvLogWriter
1500         cr.RunArvMount = cr.ArvMountCmd
1501         cr.MkTempDir = ioutil.TempDir
1502         cr.LogCollection = &CollectionWriter{0, kc, nil, nil, sync.Mutex{}}
1503         cr.Container.UUID = containerUUID
1504         cr.CrunchLog = NewThrottledLogger(cr.NewLogWriter("crunch-run"))
1505         cr.CrunchLog.Immediate = log.New(os.Stderr, containerUUID+" ", 0)
1506
1507         loadLogThrottleParams(api)
1508
1509         return cr
1510 }
1511
1512 func main() {
1513         statInterval := flag.Duration("crunchstat-interval", 10*time.Second, "sampling period for periodic resource usage reporting")
1514         cgroupRoot := flag.String("cgroup-root", "/sys/fs/cgroup", "path to sysfs cgroup tree")
1515         cgroupParent := flag.String("cgroup-parent", "docker", "name of container's parent cgroup (ignored if -cgroup-parent-subsystem is used)")
1516         cgroupParentSubsystem := flag.String("cgroup-parent-subsystem", "", "use current cgroup for given subsystem as parent cgroup for container")
1517         caCertsPath := flag.String("ca-certs", "", "Path to TLS root certificates")
1518         enableNetwork := flag.String("container-enable-networking", "default",
1519                 `Specify if networking should be enabled for container.  One of 'default', 'always':
1520         default: only enable networking if container requests it.
1521         always:  containers always have networking enabled
1522         `)
1523         networkMode := flag.String("container-network-mode", "default",
1524                 `Set networking mode for container.  Corresponds to Docker network mode (--net).
1525         `)
1526         memprofile := flag.String("memprofile", "", "write memory profile to `file` after running container")
1527         flag.Parse()
1528
1529         containerId := flag.Arg(0)
1530
1531         if *caCertsPath != "" {
1532                 arvadosclient.CertFiles = []string{*caCertsPath}
1533         }
1534
1535         api, err := arvadosclient.MakeArvadosClient()
1536         if err != nil {
1537                 log.Fatalf("%s: %v", containerId, err)
1538         }
1539         api.Retries = 8
1540
1541         var kc *keepclient.KeepClient
1542         kc, err = keepclient.MakeKeepClient(api)
1543         if err != nil {
1544                 log.Fatalf("%s: %v", containerId, err)
1545         }
1546         kc.BlockCache = &keepclient.BlockCache{MaxBlocks: 2}
1547         kc.Retries = 4
1548
1549         var docker *dockerclient.Client
1550         // API version 1.21 corresponds to Docker 1.9, which is currently the
1551         // minimum version we want to support.
1552         docker, err = dockerclient.NewClient(dockerclient.DefaultDockerHost, "1.21", nil, nil)
1553         if err != nil {
1554                 log.Fatalf("%s: %v", containerId, err)
1555         }
1556
1557         dockerClientProxy := ThinDockerClientProxy{Docker: docker}
1558
1559         cr := NewContainerRunner(api, kc, dockerClientProxy, containerId)
1560         cr.statInterval = *statInterval
1561         cr.cgroupRoot = *cgroupRoot
1562         cr.expectCgroupParent = *cgroupParent
1563         cr.enableNetwork = *enableNetwork
1564         cr.networkMode = *networkMode
1565         if *cgroupParentSubsystem != "" {
1566                 p := findCgroup(*cgroupParentSubsystem)
1567                 cr.setCgroupParent = p
1568                 cr.expectCgroupParent = p
1569         }
1570
1571         runerr := cr.Run()
1572
1573         if *memprofile != "" {
1574                 f, err := os.Create(*memprofile)
1575                 if err != nil {
1576                         log.Printf("could not create memory profile: ", err)
1577                 }
1578                 runtime.GC() // get up-to-date statistics
1579                 if err := pprof.WriteHeapProfile(f); err != nil {
1580                         log.Printf("could not write memory profile: ", err)
1581                 }
1582                 closeerr := f.Close()
1583                 if closeerr != nil {
1584                         log.Printf("closing memprofile file: ", err)
1585                 }
1586         }
1587
1588         if runerr != nil {
1589                 log.Fatalf("%s: %v", containerId, runerr)
1590         }
1591 }