12183: Add comment about purpose of "relocated"
[arvados.git] / services / crunch-run / crunchrun.go
1 // Copyright (C) The Arvados Authors. All rights reserved.
2 //
3 // SPDX-License-Identifier: AGPL-3.0
4
5 package main
6
7 import (
8         "bytes"
9         "context"
10         "encoding/json"
11         "errors"
12         "flag"
13         "fmt"
14         "io"
15         "io/ioutil"
16         "log"
17         "os"
18         "os/exec"
19         "os/signal"
20         "path"
21         "path/filepath"
22         "runtime"
23         "runtime/pprof"
24         "sort"
25         "strings"
26         "sync"
27         "syscall"
28         "time"
29
30         "git.curoverse.com/arvados.git/lib/crunchstat"
31         "git.curoverse.com/arvados.git/sdk/go/arvados"
32         "git.curoverse.com/arvados.git/sdk/go/arvadosclient"
33         "git.curoverse.com/arvados.git/sdk/go/keepclient"
34         "git.curoverse.com/arvados.git/sdk/go/manifest"
35
36         dockertypes "github.com/docker/docker/api/types"
37         dockercontainer "github.com/docker/docker/api/types/container"
38         dockernetwork "github.com/docker/docker/api/types/network"
39         dockerclient "github.com/docker/docker/client"
40 )
41
42 // IArvadosClient is the minimal Arvados API methods used by crunch-run.
43 type IArvadosClient interface {
44         Create(resourceType string, parameters arvadosclient.Dict, output interface{}) error
45         Get(resourceType string, uuid string, parameters arvadosclient.Dict, output interface{}) error
46         Update(resourceType string, uuid string, parameters arvadosclient.Dict, output interface{}) error
47         Call(method, resourceType, uuid, action string, parameters arvadosclient.Dict, output interface{}) error
48         CallRaw(method string, resourceType string, uuid string, action string, parameters arvadosclient.Dict) (reader io.ReadCloser, err error)
49         Discovery(key string) (interface{}, error)
50 }
51
52 // ErrCancelled is the error returned when the container is cancelled.
53 var ErrCancelled = errors.New("Cancelled")
54
55 // IKeepClient is the minimal Keep API methods used by crunch-run.
56 type IKeepClient interface {
57         PutHB(hash string, buf []byte) (string, int, error)
58         ManifestFileReader(m manifest.Manifest, filename string) (arvados.File, error)
59         ClearBlockCache()
60 }
61
62 // NewLogWriter is a factory function to create a new log writer.
63 type NewLogWriter func(name string) io.WriteCloser
64
65 type RunArvMount func(args []string, tok string) (*exec.Cmd, error)
66
67 type MkTempDir func(string, string) (string, error)
68
69 // ThinDockerClient is the minimal Docker client interface used by crunch-run.
70 type ThinDockerClient interface {
71         ContainerAttach(ctx context.Context, container string, options dockertypes.ContainerAttachOptions) (dockertypes.HijackedResponse, error)
72         ContainerCreate(ctx context.Context, config *dockercontainer.Config, hostConfig *dockercontainer.HostConfig,
73                 networkingConfig *dockernetwork.NetworkingConfig, containerName string) (dockercontainer.ContainerCreateCreatedBody, error)
74         ContainerStart(ctx context.Context, container string, options dockertypes.ContainerStartOptions) error
75         ContainerStop(ctx context.Context, container string, timeout *time.Duration) error
76         ContainerWait(ctx context.Context, container string, condition dockercontainer.WaitCondition) (<-chan dockercontainer.ContainerWaitOKBody, <-chan error)
77         ImageInspectWithRaw(ctx context.Context, image string) (dockertypes.ImageInspect, []byte, error)
78         ImageLoad(ctx context.Context, input io.Reader, quiet bool) (dockertypes.ImageLoadResponse, error)
79         ImageRemove(ctx context.Context, image string, options dockertypes.ImageRemoveOptions) ([]dockertypes.ImageDeleteResponseItem, error)
80 }
81
82 // ThinDockerClientProxy is a proxy implementation of ThinDockerClient
83 // that executes the docker requests on dockerclient.Client
84 type ThinDockerClientProxy struct {
85         Docker *dockerclient.Client
86 }
87
88 // ContainerAttach invokes dockerclient.Client.ContainerAttach
89 func (proxy ThinDockerClientProxy) ContainerAttach(ctx context.Context, container string, options dockertypes.ContainerAttachOptions) (dockertypes.HijackedResponse, error) {
90         return proxy.Docker.ContainerAttach(ctx, container, options)
91 }
92
93 // ContainerCreate invokes dockerclient.Client.ContainerCreate
94 func (proxy ThinDockerClientProxy) ContainerCreate(ctx context.Context, config *dockercontainer.Config, hostConfig *dockercontainer.HostConfig,
95         networkingConfig *dockernetwork.NetworkingConfig, containerName string) (dockercontainer.ContainerCreateCreatedBody, error) {
96         return proxy.Docker.ContainerCreate(ctx, config, hostConfig, networkingConfig, containerName)
97 }
98
99 // ContainerStart invokes dockerclient.Client.ContainerStart
100 func (proxy ThinDockerClientProxy) ContainerStart(ctx context.Context, container string, options dockertypes.ContainerStartOptions) error {
101         return proxy.Docker.ContainerStart(ctx, container, options)
102 }
103
104 // ContainerStop invokes dockerclient.Client.ContainerStop
105 func (proxy ThinDockerClientProxy) ContainerStop(ctx context.Context, container string, timeout *time.Duration) error {
106         return proxy.Docker.ContainerStop(ctx, container, timeout)
107 }
108
109 // ContainerWait invokes dockerclient.Client.ContainerWait
110 func (proxy ThinDockerClientProxy) ContainerWait(ctx context.Context, container string, condition dockercontainer.WaitCondition) (<-chan dockercontainer.ContainerWaitOKBody, <-chan error) {
111         return proxy.Docker.ContainerWait(ctx, container, condition)
112 }
113
114 // ImageInspectWithRaw invokes dockerclient.Client.ImageInspectWithRaw
115 func (proxy ThinDockerClientProxy) ImageInspectWithRaw(ctx context.Context, image string) (dockertypes.ImageInspect, []byte, error) {
116         return proxy.Docker.ImageInspectWithRaw(ctx, image)
117 }
118
119 // ImageLoad invokes dockerclient.Client.ImageLoad
120 func (proxy ThinDockerClientProxy) ImageLoad(ctx context.Context, input io.Reader, quiet bool) (dockertypes.ImageLoadResponse, error) {
121         return proxy.Docker.ImageLoad(ctx, input, quiet)
122 }
123
124 // ImageRemove invokes dockerclient.Client.ImageRemove
125 func (proxy ThinDockerClientProxy) ImageRemove(ctx context.Context, image string, options dockertypes.ImageRemoveOptions) ([]dockertypes.ImageDeleteResponseItem, error) {
126         return proxy.Docker.ImageRemove(ctx, image, options)
127 }
128
129 // ContainerRunner is the main stateful struct used for a single execution of a
130 // container.
131 type ContainerRunner struct {
132         Docker    ThinDockerClient
133         ArvClient IArvadosClient
134         Kc        IKeepClient
135         arvados.Container
136         ContainerConfig dockercontainer.Config
137         dockercontainer.HostConfig
138         token       string
139         ContainerID string
140         ExitCode    *int
141         NewLogWriter
142         loggingDone   chan bool
143         CrunchLog     *ThrottledLogger
144         Stdout        io.WriteCloser
145         Stderr        io.WriteCloser
146         LogCollection *CollectionWriter
147         LogsPDH       *string
148         RunArvMount
149         MkTempDir
150         ArvMount       *exec.Cmd
151         ArvMountPoint  string
152         HostOutputDir  string
153         CleanupTempDir []string
154         Binds          []string
155         Volumes        map[string]struct{}
156         OutputPDH      *string
157         SigChan        chan os.Signal
158         ArvMountExit   chan error
159         finalState     string
160
161         statLogger   io.WriteCloser
162         statReporter *crunchstat.Reporter
163         statInterval time.Duration
164         cgroupRoot   string
165         // What we expect the container's cgroup parent to be.
166         expectCgroupParent string
167         // What we tell docker to use as the container's cgroup
168         // parent. Note: Ideally we would use the same field for both
169         // expectCgroupParent and setCgroupParent, and just make it
170         // default to "docker". However, when using docker < 1.10 with
171         // systemd, specifying a non-empty cgroup parent (even the
172         // default value "docker") hits a docker bug
173         // (https://github.com/docker/docker/issues/17126). Using two
174         // separate fields makes it possible to use the "expect cgroup
175         // parent to be X" feature even on sites where the "specify
176         // cgroup parent" feature breaks.
177         setCgroupParent string
178
179         cStateLock sync.Mutex
180         cStarted   bool // StartContainer() succeeded
181         cCancelled bool // StopContainer() invoked
182
183         enableNetwork string // one of "default" or "always"
184         networkMode   string // passed through to HostConfig.NetworkMode
185 }
186
187 // setupSignals sets up signal handling to gracefully terminate the underlying
188 // Docker container and update state when receiving a TERM, INT or QUIT signal.
189 func (runner *ContainerRunner) setupSignals() {
190         runner.SigChan = make(chan os.Signal, 1)
191         signal.Notify(runner.SigChan, syscall.SIGTERM)
192         signal.Notify(runner.SigChan, syscall.SIGINT)
193         signal.Notify(runner.SigChan, syscall.SIGQUIT)
194
195         go func(sig chan os.Signal) {
196                 <-sig
197                 runner.stop()
198         }(runner.SigChan)
199 }
200
201 // stop the underlying Docker container.
202 func (runner *ContainerRunner) stop() {
203         runner.cStateLock.Lock()
204         defer runner.cStateLock.Unlock()
205         if runner.cCancelled {
206                 return
207         }
208         runner.cCancelled = true
209         if runner.cStarted {
210                 timeout := time.Duration(10)
211                 err := runner.Docker.ContainerStop(context.TODO(), runner.ContainerID, &(timeout))
212                 if err != nil {
213                         log.Printf("StopContainer failed: %s", err)
214                 }
215         }
216 }
217
218 func (runner *ContainerRunner) teardown() {
219         if runner.SigChan != nil {
220                 signal.Stop(runner.SigChan)
221                 close(runner.SigChan)
222         }
223 }
224
225 // LoadImage determines the docker image id from the container record and
226 // checks if it is available in the local Docker image store.  If not, it loads
227 // the image from Keep.
228 func (runner *ContainerRunner) LoadImage() (err error) {
229
230         runner.CrunchLog.Printf("Fetching Docker image from collection '%s'", runner.Container.ContainerImage)
231
232         var collection arvados.Collection
233         err = runner.ArvClient.Get("collections", runner.Container.ContainerImage, nil, &collection)
234         if err != nil {
235                 return fmt.Errorf("While getting container image collection: %v", err)
236         }
237         manifest := manifest.Manifest{Text: collection.ManifestText}
238         var img, imageID string
239         for ms := range manifest.StreamIter() {
240                 img = ms.FileStreamSegments[0].Name
241                 if !strings.HasSuffix(img, ".tar") {
242                         return fmt.Errorf("First file in the container image collection does not end in .tar")
243                 }
244                 imageID = img[:len(img)-4]
245         }
246
247         runner.CrunchLog.Printf("Using Docker image id '%s'", imageID)
248
249         _, _, err = runner.Docker.ImageInspectWithRaw(context.TODO(), imageID)
250         if err != nil {
251                 runner.CrunchLog.Print("Loading Docker image from keep")
252
253                 var readCloser io.ReadCloser
254                 readCloser, err = runner.Kc.ManifestFileReader(manifest, img)
255                 if err != nil {
256                         return fmt.Errorf("While creating ManifestFileReader for container image: %v", err)
257                 }
258
259                 response, err := runner.Docker.ImageLoad(context.TODO(), readCloser, true)
260                 if err != nil {
261                         return fmt.Errorf("While loading container image into Docker: %v", err)
262                 }
263
264                 defer response.Body.Close()
265                 rbody, err := ioutil.ReadAll(response.Body)
266                 if err != nil {
267                         return fmt.Errorf("Reading response to image load: %v", err)
268                 }
269                 runner.CrunchLog.Printf("Docker response: %s", rbody)
270         } else {
271                 runner.CrunchLog.Print("Docker image is available")
272         }
273
274         runner.ContainerConfig.Image = imageID
275
276         runner.Kc.ClearBlockCache()
277
278         return nil
279 }
280
281 func (runner *ContainerRunner) ArvMountCmd(arvMountCmd []string, token string) (c *exec.Cmd, err error) {
282         c = exec.Command("arv-mount", arvMountCmd...)
283
284         // Copy our environment, but override ARVADOS_API_TOKEN with
285         // the container auth token.
286         c.Env = nil
287         for _, s := range os.Environ() {
288                 if !strings.HasPrefix(s, "ARVADOS_API_TOKEN=") {
289                         c.Env = append(c.Env, s)
290                 }
291         }
292         c.Env = append(c.Env, "ARVADOS_API_TOKEN="+token)
293
294         nt := NewThrottledLogger(runner.NewLogWriter("arv-mount"))
295         c.Stdout = nt
296         c.Stderr = nt
297
298         err = c.Start()
299         if err != nil {
300                 return nil, err
301         }
302
303         statReadme := make(chan bool)
304         runner.ArvMountExit = make(chan error)
305
306         keepStatting := true
307         go func() {
308                 for keepStatting {
309                         time.Sleep(100 * time.Millisecond)
310                         _, err = os.Stat(fmt.Sprintf("%s/by_id/README", runner.ArvMountPoint))
311                         if err == nil {
312                                 keepStatting = false
313                                 statReadme <- true
314                         }
315                 }
316                 close(statReadme)
317         }()
318
319         go func() {
320                 runner.ArvMountExit <- c.Wait()
321                 close(runner.ArvMountExit)
322         }()
323
324         select {
325         case <-statReadme:
326                 break
327         case err := <-runner.ArvMountExit:
328                 runner.ArvMount = nil
329                 keepStatting = false
330                 return nil, err
331         }
332
333         return c, nil
334 }
335
336 func (runner *ContainerRunner) SetupArvMountPoint(prefix string) (err error) {
337         if runner.ArvMountPoint == "" {
338                 runner.ArvMountPoint, err = runner.MkTempDir("", prefix)
339         }
340         return
341 }
342
343 func (runner *ContainerRunner) SetupMounts() (err error) {
344         err = runner.SetupArvMountPoint("keep")
345         if err != nil {
346                 return fmt.Errorf("While creating keep mount temp dir: %v", err)
347         }
348
349         runner.CleanupTempDir = append(runner.CleanupTempDir, runner.ArvMountPoint)
350
351         pdhOnly := true
352         tmpcount := 0
353         arvMountCmd := []string{"--foreground", "--allow-other", "--read-write"}
354
355         if runner.Container.RuntimeConstraints.KeepCacheRAM > 0 {
356                 arvMountCmd = append(arvMountCmd, "--file-cache", fmt.Sprintf("%d", runner.Container.RuntimeConstraints.KeepCacheRAM))
357         }
358
359         collectionPaths := []string{}
360         runner.Binds = nil
361         runner.Volumes = make(map[string]struct{})
362         needCertMount := true
363
364         var binds []string
365         for bind := range runner.Container.Mounts {
366                 binds = append(binds, bind)
367         }
368         sort.Strings(binds)
369
370         for _, bind := range binds {
371                 mnt := runner.Container.Mounts[bind]
372                 if bind == "stdout" || bind == "stderr" {
373                         // Is it a "file" mount kind?
374                         if mnt.Kind != "file" {
375                                 return fmt.Errorf("Unsupported mount kind '%s' for %s. Only 'file' is supported.", mnt.Kind, bind)
376                         }
377
378                         // Does path start with OutputPath?
379                         prefix := runner.Container.OutputPath
380                         if !strings.HasSuffix(prefix, "/") {
381                                 prefix += "/"
382                         }
383                         if !strings.HasPrefix(mnt.Path, prefix) {
384                                 return fmt.Errorf("%s path does not start with OutputPath: %s, %s", strings.Title(bind), mnt.Path, prefix)
385                         }
386                 }
387
388                 if bind == "stdin" {
389                         // Is it a "collection" mount kind?
390                         if mnt.Kind != "collection" && mnt.Kind != "json" {
391                                 return fmt.Errorf("Unsupported mount kind '%s' for stdin. Only 'collection' or 'json' are supported.", mnt.Kind)
392                         }
393                 }
394
395                 if bind == "/etc/arvados/ca-certificates.crt" {
396                         needCertMount = false
397                 }
398
399                 if strings.HasPrefix(bind, runner.Container.OutputPath+"/") && bind != runner.Container.OutputPath+"/" {
400                         if mnt.Kind != "collection" {
401                                 return fmt.Errorf("Only mount points of kind 'collection' are supported underneath the output_path: %v", bind)
402                         }
403                 }
404
405                 switch {
406                 case mnt.Kind == "collection" && bind != "stdin":
407                         var src string
408                         if mnt.UUID != "" && mnt.PortableDataHash != "" {
409                                 return fmt.Errorf("Cannot specify both 'uuid' and 'portable_data_hash' for a collection mount")
410                         }
411                         if mnt.UUID != "" {
412                                 if mnt.Writable {
413                                         return fmt.Errorf("Writing to existing collections currently not permitted.")
414                                 }
415                                 pdhOnly = false
416                                 src = fmt.Sprintf("%s/by_id/%s", runner.ArvMountPoint, mnt.UUID)
417                         } else if mnt.PortableDataHash != "" {
418                                 if mnt.Writable {
419                                         return fmt.Errorf("Can never write to a collection specified by portable data hash")
420                                 }
421                                 idx := strings.Index(mnt.PortableDataHash, "/")
422                                 if idx > 0 {
423                                         mnt.Path = path.Clean(mnt.PortableDataHash[idx:])
424                                         mnt.PortableDataHash = mnt.PortableDataHash[0:idx]
425                                         runner.Container.Mounts[bind] = mnt
426                                 }
427                                 src = fmt.Sprintf("%s/by_id/%s", runner.ArvMountPoint, mnt.PortableDataHash)
428                                 if mnt.Path != "" && mnt.Path != "." {
429                                         if strings.HasPrefix(mnt.Path, "./") {
430                                                 mnt.Path = mnt.Path[2:]
431                                         } else if strings.HasPrefix(mnt.Path, "/") {
432                                                 mnt.Path = mnt.Path[1:]
433                                         }
434                                         src += "/" + mnt.Path
435                                 }
436                         } else {
437                                 src = fmt.Sprintf("%s/tmp%d", runner.ArvMountPoint, tmpcount)
438                                 arvMountCmd = append(arvMountCmd, "--mount-tmp")
439                                 arvMountCmd = append(arvMountCmd, fmt.Sprintf("tmp%d", tmpcount))
440                                 tmpcount += 1
441                         }
442                         if mnt.Writable {
443                                 if bind == runner.Container.OutputPath {
444                                         runner.HostOutputDir = src
445                                 } else if strings.HasPrefix(bind, runner.Container.OutputPath+"/") {
446                                         return fmt.Errorf("Writable mount points are not permitted underneath the output_path: %v", bind)
447                                 }
448                                 runner.Binds = append(runner.Binds, fmt.Sprintf("%s:%s", src, bind))
449                         } else {
450                                 runner.Binds = append(runner.Binds, fmt.Sprintf("%s:%s:ro", src, bind))
451                         }
452                         collectionPaths = append(collectionPaths, src)
453
454                 case mnt.Kind == "tmp":
455                         var tmpdir string
456                         tmpdir, err = runner.MkTempDir("", "")
457                         if err != nil {
458                                 return fmt.Errorf("While creating mount temp dir: %v", err)
459                         }
460                         st, staterr := os.Stat(tmpdir)
461                         if staterr != nil {
462                                 return fmt.Errorf("While Stat on temp dir: %v", staterr)
463                         }
464                         err = os.Chmod(tmpdir, st.Mode()|os.ModeSetgid|0777)
465                         if staterr != nil {
466                                 return fmt.Errorf("While Chmod temp dir: %v", err)
467                         }
468                         runner.CleanupTempDir = append(runner.CleanupTempDir, tmpdir)
469                         runner.Binds = append(runner.Binds, fmt.Sprintf("%s:%s", tmpdir, bind))
470                         if bind == runner.Container.OutputPath {
471                                 runner.HostOutputDir = tmpdir
472                         }
473
474                 case mnt.Kind == "json":
475                         jsondata, err := json.Marshal(mnt.Content)
476                         if err != nil {
477                                 return fmt.Errorf("encoding json data: %v", err)
478                         }
479                         // Create a tempdir with a single file
480                         // (instead of just a tempfile): this way we
481                         // can ensure the file is world-readable
482                         // inside the container, without having to
483                         // make it world-readable on the docker host.
484                         tmpdir, err := runner.MkTempDir("", "")
485                         if err != nil {
486                                 return fmt.Errorf("creating temp dir: %v", err)
487                         }
488                         runner.CleanupTempDir = append(runner.CleanupTempDir, tmpdir)
489                         tmpfn := filepath.Join(tmpdir, "mountdata.json")
490                         err = ioutil.WriteFile(tmpfn, jsondata, 0644)
491                         if err != nil {
492                                 return fmt.Errorf("writing temp file: %v", err)
493                         }
494                         runner.Binds = append(runner.Binds, fmt.Sprintf("%s:%s:ro", tmpfn, bind))
495                 }
496         }
497
498         if runner.HostOutputDir == "" {
499                 return fmt.Errorf("Output path does not correspond to a writable mount point")
500         }
501
502         if wantAPI := runner.Container.RuntimeConstraints.API; needCertMount && wantAPI != nil && *wantAPI {
503                 for _, certfile := range arvadosclient.CertFiles {
504                         _, err := os.Stat(certfile)
505                         if err == nil {
506                                 runner.Binds = append(runner.Binds, fmt.Sprintf("%s:/etc/arvados/ca-certificates.crt:ro", certfile))
507                                 break
508                         }
509                 }
510         }
511
512         if pdhOnly {
513                 arvMountCmd = append(arvMountCmd, "--mount-by-pdh", "by_id")
514         } else {
515                 arvMountCmd = append(arvMountCmd, "--mount-by-id", "by_id")
516         }
517         arvMountCmd = append(arvMountCmd, runner.ArvMountPoint)
518
519         token, err := runner.ContainerToken()
520         if err != nil {
521                 return fmt.Errorf("could not get container token: %s", err)
522         }
523
524         runner.ArvMount, err = runner.RunArvMount(arvMountCmd, token)
525         if err != nil {
526                 return fmt.Errorf("While trying to start arv-mount: %v", err)
527         }
528
529         for _, p := range collectionPaths {
530                 _, err = os.Stat(p)
531                 if err != nil {
532                         return fmt.Errorf("While checking that input files exist: %v", err)
533                 }
534         }
535
536         return nil
537 }
538
539 func (runner *ContainerRunner) ProcessDockerAttach(containerReader io.Reader) {
540         // Handle docker log protocol
541         // https://docs.docker.com/engine/reference/api/docker_remote_api_v1.15/#attach-to-a-container
542
543         header := make([]byte, 8)
544         for {
545                 _, readerr := io.ReadAtLeast(containerReader, header, 8)
546
547                 if readerr == nil {
548                         readsize := int64(header[7]) | (int64(header[6]) << 8) | (int64(header[5]) << 16) | (int64(header[4]) << 24)
549                         if header[0] == 1 {
550                                 // stdout
551                                 _, readerr = io.CopyN(runner.Stdout, containerReader, readsize)
552                         } else {
553                                 // stderr
554                                 _, readerr = io.CopyN(runner.Stderr, containerReader, readsize)
555                         }
556                 }
557
558                 if readerr != nil {
559                         if readerr != io.EOF {
560                                 runner.CrunchLog.Printf("While reading docker logs: %v", readerr)
561                         }
562
563                         closeerr := runner.Stdout.Close()
564                         if closeerr != nil {
565                                 runner.CrunchLog.Printf("While closing stdout logs: %v", closeerr)
566                         }
567
568                         closeerr = runner.Stderr.Close()
569                         if closeerr != nil {
570                                 runner.CrunchLog.Printf("While closing stderr logs: %v", closeerr)
571                         }
572
573                         if runner.statReporter != nil {
574                                 runner.statReporter.Stop()
575                                 closeerr = runner.statLogger.Close()
576                                 if closeerr != nil {
577                                         runner.CrunchLog.Printf("While closing crunchstat logs: %v", closeerr)
578                                 }
579                         }
580
581                         runner.loggingDone <- true
582                         close(runner.loggingDone)
583                         return
584                 }
585         }
586 }
587
588 func (runner *ContainerRunner) StartCrunchstat() {
589         runner.statLogger = NewThrottledLogger(runner.NewLogWriter("crunchstat"))
590         runner.statReporter = &crunchstat.Reporter{
591                 CID:          runner.ContainerID,
592                 Logger:       log.New(runner.statLogger, "", 0),
593                 CgroupParent: runner.expectCgroupParent,
594                 CgroupRoot:   runner.cgroupRoot,
595                 PollPeriod:   runner.statInterval,
596         }
597         runner.statReporter.Start()
598 }
599
600 type infoCommand struct {
601         label string
602         cmd   []string
603 }
604
605 // Gather node information and store it on the log for debugging
606 // purposes.
607 func (runner *ContainerRunner) LogNodeInfo() (err error) {
608         w := runner.NewLogWriter("node-info")
609         logger := log.New(w, "node-info", 0)
610
611         commands := []infoCommand{
612                 {
613                         label: "Host Information",
614                         cmd:   []string{"uname", "-a"},
615                 },
616                 {
617                         label: "CPU Information",
618                         cmd:   []string{"cat", "/proc/cpuinfo"},
619                 },
620                 {
621                         label: "Memory Information",
622                         cmd:   []string{"cat", "/proc/meminfo"},
623                 },
624                 {
625                         label: "Disk Space",
626                         cmd:   []string{"df", "-m", "/", os.TempDir()},
627                 },
628                 {
629                         label: "Disk INodes",
630                         cmd:   []string{"df", "-i", "/", os.TempDir()},
631                 },
632         }
633
634         // Run commands with informational output to be logged.
635         var out []byte
636         for _, command := range commands {
637                 out, err = exec.Command(command.cmd[0], command.cmd[1:]...).CombinedOutput()
638                 if err != nil {
639                         return fmt.Errorf("While running command %q: %v",
640                                 command.cmd, err)
641                 }
642                 logger.Println(command.label)
643                 for _, line := range strings.Split(string(out), "\n") {
644                         logger.Println(" ", line)
645                 }
646         }
647
648         err = w.Close()
649         if err != nil {
650                 return fmt.Errorf("While closing node-info logs: %v", err)
651         }
652         return nil
653 }
654
655 // Get and save the raw JSON container record from the API server
656 func (runner *ContainerRunner) LogContainerRecord() (err error) {
657         w := &ArvLogWriter{
658                 ArvClient:     runner.ArvClient,
659                 UUID:          runner.Container.UUID,
660                 loggingStream: "container",
661                 writeCloser:   runner.LogCollection.Open("container.json"),
662         }
663
664         // Get Container record JSON from the API Server
665         reader, err := runner.ArvClient.CallRaw("GET", "containers", runner.Container.UUID, "", nil)
666         if err != nil {
667                 return fmt.Errorf("While retrieving container record from the API server: %v", err)
668         }
669         defer reader.Close()
670
671         dec := json.NewDecoder(reader)
672         dec.UseNumber()
673         var cr map[string]interface{}
674         if err = dec.Decode(&cr); err != nil {
675                 return fmt.Errorf("While decoding the container record JSON response: %v", err)
676         }
677         // Re-encode it using indentation to improve readability
678         enc := json.NewEncoder(w)
679         enc.SetIndent("", "    ")
680         if err = enc.Encode(cr); err != nil {
681                 return fmt.Errorf("While logging the JSON container record: %v", err)
682         }
683         err = w.Close()
684         if err != nil {
685                 return fmt.Errorf("While closing container.json log: %v", err)
686         }
687         return nil
688 }
689
690 // AttachStreams connects the docker container stdin, stdout and stderr logs
691 // to the Arvados logger which logs to Keep and the API server logs table.
692 func (runner *ContainerRunner) AttachStreams() (err error) {
693
694         runner.CrunchLog.Print("Attaching container streams")
695
696         // If stdin mount is provided, attach it to the docker container
697         var stdinRdr arvados.File
698         var stdinJson []byte
699         if stdinMnt, ok := runner.Container.Mounts["stdin"]; ok {
700                 if stdinMnt.Kind == "collection" {
701                         var stdinColl arvados.Collection
702                         collId := stdinMnt.UUID
703                         if collId == "" {
704                                 collId = stdinMnt.PortableDataHash
705                         }
706                         err = runner.ArvClient.Get("collections", collId, nil, &stdinColl)
707                         if err != nil {
708                                 return fmt.Errorf("While getting stding collection: %v", err)
709                         }
710
711                         stdinRdr, err = runner.Kc.ManifestFileReader(manifest.Manifest{Text: stdinColl.ManifestText}, stdinMnt.Path)
712                         if os.IsNotExist(err) {
713                                 return fmt.Errorf("stdin collection path not found: %v", stdinMnt.Path)
714                         } else if err != nil {
715                                 return fmt.Errorf("While getting stdin collection path %v: %v", stdinMnt.Path, err)
716                         }
717                 } else if stdinMnt.Kind == "json" {
718                         stdinJson, err = json.Marshal(stdinMnt.Content)
719                         if err != nil {
720                                 return fmt.Errorf("While encoding stdin json data: %v", err)
721                         }
722                 }
723         }
724
725         stdinUsed := stdinRdr != nil || len(stdinJson) != 0
726         response, err := runner.Docker.ContainerAttach(context.TODO(), runner.ContainerID,
727                 dockertypes.ContainerAttachOptions{Stream: true, Stdin: stdinUsed, Stdout: true, Stderr: true})
728         if err != nil {
729                 return fmt.Errorf("While attaching container stdout/stderr streams: %v", err)
730         }
731
732         runner.loggingDone = make(chan bool)
733
734         if stdoutMnt, ok := runner.Container.Mounts["stdout"]; ok {
735                 stdoutFile, err := runner.getStdoutFile(stdoutMnt.Path)
736                 if err != nil {
737                         return err
738                 }
739                 runner.Stdout = stdoutFile
740         } else {
741                 runner.Stdout = NewThrottledLogger(runner.NewLogWriter("stdout"))
742         }
743
744         if stderrMnt, ok := runner.Container.Mounts["stderr"]; ok {
745                 stderrFile, err := runner.getStdoutFile(stderrMnt.Path)
746                 if err != nil {
747                         return err
748                 }
749                 runner.Stderr = stderrFile
750         } else {
751                 runner.Stderr = NewThrottledLogger(runner.NewLogWriter("stderr"))
752         }
753
754         if stdinRdr != nil {
755                 go func() {
756                         _, err := io.Copy(response.Conn, stdinRdr)
757                         if err != nil {
758                                 runner.CrunchLog.Print("While writing stdin collection to docker container %q", err)
759                                 runner.stop()
760                         }
761                         stdinRdr.Close()
762                         response.CloseWrite()
763                 }()
764         } else if len(stdinJson) != 0 {
765                 go func() {
766                         _, err := io.Copy(response.Conn, bytes.NewReader(stdinJson))
767                         if err != nil {
768                                 runner.CrunchLog.Print("While writing stdin json to docker container %q", err)
769                                 runner.stop()
770                         }
771                         response.CloseWrite()
772                 }()
773         }
774
775         go runner.ProcessDockerAttach(response.Reader)
776
777         return nil
778 }
779
780 func (runner *ContainerRunner) getStdoutFile(mntPath string) (*os.File, error) {
781         stdoutPath := mntPath[len(runner.Container.OutputPath):]
782         index := strings.LastIndex(stdoutPath, "/")
783         if index > 0 {
784                 subdirs := stdoutPath[:index]
785                 if subdirs != "" {
786                         st, err := os.Stat(runner.HostOutputDir)
787                         if err != nil {
788                                 return nil, fmt.Errorf("While Stat on temp dir: %v", err)
789                         }
790                         stdoutPath := filepath.Join(runner.HostOutputDir, subdirs)
791                         err = os.MkdirAll(stdoutPath, st.Mode()|os.ModeSetgid|0777)
792                         if err != nil {
793                                 return nil, fmt.Errorf("While MkdirAll %q: %v", stdoutPath, err)
794                         }
795                 }
796         }
797         stdoutFile, err := os.Create(filepath.Join(runner.HostOutputDir, stdoutPath))
798         if err != nil {
799                 return nil, fmt.Errorf("While creating file %q: %v", stdoutPath, err)
800         }
801
802         return stdoutFile, nil
803 }
804
805 // CreateContainer creates the docker container.
806 func (runner *ContainerRunner) CreateContainer() error {
807         runner.CrunchLog.Print("Creating Docker container")
808
809         runner.ContainerConfig.Cmd = runner.Container.Command
810         if runner.Container.Cwd != "." {
811                 runner.ContainerConfig.WorkingDir = runner.Container.Cwd
812         }
813
814         for k, v := range runner.Container.Environment {
815                 runner.ContainerConfig.Env = append(runner.ContainerConfig.Env, k+"="+v)
816         }
817
818         runner.ContainerConfig.Volumes = runner.Volumes
819
820         runner.HostConfig = dockercontainer.HostConfig{
821                 Binds: runner.Binds,
822                 LogConfig: dockercontainer.LogConfig{
823                         Type: "none",
824                 },
825                 Resources: dockercontainer.Resources{
826                         CgroupParent: runner.setCgroupParent,
827                 },
828         }
829
830         if wantAPI := runner.Container.RuntimeConstraints.API; wantAPI != nil && *wantAPI {
831                 tok, err := runner.ContainerToken()
832                 if err != nil {
833                         return err
834                 }
835                 runner.ContainerConfig.Env = append(runner.ContainerConfig.Env,
836                         "ARVADOS_API_TOKEN="+tok,
837                         "ARVADOS_API_HOST="+os.Getenv("ARVADOS_API_HOST"),
838                         "ARVADOS_API_HOST_INSECURE="+os.Getenv("ARVADOS_API_HOST_INSECURE"),
839                 )
840                 runner.HostConfig.NetworkMode = dockercontainer.NetworkMode(runner.networkMode)
841         } else {
842                 if runner.enableNetwork == "always" {
843                         runner.HostConfig.NetworkMode = dockercontainer.NetworkMode(runner.networkMode)
844                 } else {
845                         runner.HostConfig.NetworkMode = dockercontainer.NetworkMode("none")
846                 }
847         }
848
849         _, stdinUsed := runner.Container.Mounts["stdin"]
850         runner.ContainerConfig.OpenStdin = stdinUsed
851         runner.ContainerConfig.StdinOnce = stdinUsed
852         runner.ContainerConfig.AttachStdin = stdinUsed
853         runner.ContainerConfig.AttachStdout = true
854         runner.ContainerConfig.AttachStderr = true
855
856         createdBody, err := runner.Docker.ContainerCreate(context.TODO(), &runner.ContainerConfig, &runner.HostConfig, nil, runner.Container.UUID)
857         if err != nil {
858                 return fmt.Errorf("While creating container: %v", err)
859         }
860
861         runner.ContainerID = createdBody.ID
862
863         return runner.AttachStreams()
864 }
865
866 // StartContainer starts the docker container created by CreateContainer.
867 func (runner *ContainerRunner) StartContainer() error {
868         runner.CrunchLog.Printf("Starting Docker container id '%s'", runner.ContainerID)
869         runner.cStateLock.Lock()
870         defer runner.cStateLock.Unlock()
871         if runner.cCancelled {
872                 return ErrCancelled
873         }
874         err := runner.Docker.ContainerStart(context.TODO(), runner.ContainerID,
875                 dockertypes.ContainerStartOptions{})
876         if err != nil {
877                 var advice string
878                 if strings.Contains(err.Error(), "no such file or directory") {
879                         advice = fmt.Sprintf("\nPossible causes: command %q is missing, the interpreter given in #! is missing, or script has Windows line endings.", runner.Container.Command[0])
880                 }
881                 return fmt.Errorf("could not start container: %v%s", err, advice)
882         }
883         runner.cStarted = true
884         return nil
885 }
886
887 // WaitFinish waits for the container to terminate, capture the exit code, and
888 // close the stdout/stderr logging.
889 func (runner *ContainerRunner) WaitFinish() (err error) {
890         runner.CrunchLog.Print("Waiting for container to finish")
891
892         waitOk, waitErr := runner.Docker.ContainerWait(context.TODO(), runner.ContainerID, "not-running")
893
894         var waitBody dockercontainer.ContainerWaitOKBody
895         select {
896         case waitBody = <-waitOk:
897         case err = <-waitErr:
898         }
899
900         if err != nil {
901                 return fmt.Errorf("container wait: %v", err)
902         }
903
904         runner.CrunchLog.Printf("Container exited with code: %v", waitBody.StatusCode)
905         code := int(waitBody.StatusCode)
906         runner.ExitCode = &code
907
908         waitMount := runner.ArvMountExit
909         select {
910         case err = <-waitMount:
911                 runner.CrunchLog.Printf("arv-mount exited before container finished: %v", err)
912                 waitMount = nil
913                 runner.stop()
914         default:
915         }
916
917         // wait for stdout/stderr to complete
918         <-runner.loggingDone
919
920         return nil
921 }
922
923 // UploadFile uploads files within the output directory, with special handling
924 // for symlinks. If the symlink leads to a keep mount, copy the manifest text
925 // from the keep mount into the output manifestText.  Ensure that whether
926 // symlinks are relative or absolute, they must remain within the output
927 // directory.
928 //
929 // Assumes initial value of "path" is absolute, and located within runner.HostOutputDir.
930 func (runner *ContainerRunner) UploadOutputFile(
931         path string,
932         info os.FileInfo,
933         infoerr error,
934         binds []string,
935         walkUpload *WalkUpload,
936         relocateFrom string,
937         relocateTo string) (manifestText string, err error) {
938
939         if infoerr != nil {
940                 return "", infoerr
941         }
942
943         // When following symlinks, the source path may need to be logically
944         // relocated to some other path within the output collection.  Remove
945         // the relocateFrom prefix and replace it with relocateTo.
946         relocated := relocateTo + path[len(relocateFrom):]
947
948         if info.Mode().IsRegular() {
949                 return "", walkUpload.UploadFile(relocated, path)
950         }
951
952         // Not a regular file, try to follow symlinks
953         var nextlink = path
954         for n := 0; n < 32; n++ {
955                 if info.Mode()&os.ModeSymlink == 0 {
956                         // Not a symlink, don't do anything
957                         return
958                 }
959
960                 var readlinktgt string
961                 readlinktgt, err = os.Readlink(nextlink)
962                 if err != nil {
963                         return
964                 }
965
966                 tgt := readlinktgt
967                 if !strings.HasPrefix(tgt, "/") {
968                         // Relative symlink, resolve it to host path
969                         tgt = filepath.Join(filepath.Dir(path), tgt)
970                 }
971                 if strings.HasPrefix(tgt, runner.Container.OutputPath+"/") && !strings.HasPrefix(tgt, runner.HostOutputDir+"/") {
972                         // Absolute symlink to container output path, adjust it to host output path.
973                         tgt = filepath.Join(runner.HostOutputDir, tgt[len(runner.Container.OutputPath):])
974                 }
975
976                 // go through mounts and try reverse map to collection reference
977                 for _, bind := range binds {
978                         mnt := runner.Container.Mounts[bind]
979                         if tgt == bind || strings.HasPrefix(tgt, bind+"/") {
980                                 // get path relative to bind
981                                 targetSuffix := tgt[len(bind):]
982
983                                 // Copy mount and adjust the path to add path relative to the bind
984                                 adjustedMount := mnt
985                                 adjustedMount.Path = filepath.Join(adjustedMount.Path, targetSuffix)
986
987                                 // Terminates in this keep mount, so add the
988                                 // manifest text at appropriate location.
989                                 outputSuffix := path[len(runner.HostOutputDir):]
990                                 manifestText, err = runner.getCollectionManifestForPath(adjustedMount, outputSuffix)
991                                 return
992                         }
993                 }
994
995                 // If target is not a collection mount, it must be within the
996                 // output directory, otherwise it is an error.
997                 if !strings.HasPrefix(tgt, runner.HostOutputDir+"/") {
998                         err = fmt.Errorf("Output directory symlink %q points to invalid location %q, must point to mount or output directory.",
999                                 path[len(runner.HostOutputDir):], readlinktgt)
1000                         return
1001                 }
1002
1003                 info, err = os.Lstat(tgt)
1004                 if err != nil {
1005                         // tgt doesn't exist or lacks permissions
1006                         err = fmt.Errorf("Output directory symlink %q points to invalid location %q, must point to mount or output directory.",
1007                                 path[len(runner.HostOutputDir):], readlinktgt)
1008                         return
1009                 }
1010
1011                 if info.Mode().IsRegular() {
1012                         // Symlink leads to regular file.  Need to read from
1013                         // the target but upload it at the original path.
1014                         return "", walkUpload.UploadFile(relocated, tgt)
1015                 }
1016
1017                 if info.Mode().IsDir() {
1018                         // Symlink leads to directory.  Walk() doesn't follow
1019                         // directory symlinks, so we walk the target directory
1020                         // instead.  Within the walk, file paths are relocated
1021                         // so they appear under the original symlink path.
1022                         err = filepath.Walk(tgt, func(walkpath string, walkinfo os.FileInfo, walkerr error) error {
1023                                 var m string
1024                                 m, walkerr = runner.UploadOutputFile(walkpath, walkinfo, walkerr, binds, walkUpload, tgt, relocated)
1025                                 if walkerr == nil {
1026                                         manifestText = manifestText + m
1027                                 }
1028                                 return walkerr
1029                         })
1030                         return
1031                 }
1032
1033                 nextlink = tgt
1034         }
1035         // Got stuck in a loop or just a pathological number of links, give up.
1036         err = fmt.Errorf("Followed too many symlinks from path %q", path)
1037         return
1038 }
1039
1040 // HandleOutput sets the output, unmounts the FUSE mount, and deletes temporary directories
1041 func (runner *ContainerRunner) CaptureOutput() error {
1042         if runner.finalState != "Complete" {
1043                 return nil
1044         }
1045
1046         if wantAPI := runner.Container.RuntimeConstraints.API; wantAPI != nil && *wantAPI {
1047                 // Output may have been set directly by the container, so
1048                 // refresh the container record to check.
1049                 err := runner.ArvClient.Get("containers", runner.Container.UUID,
1050                         nil, &runner.Container)
1051                 if err != nil {
1052                         return err
1053                 }
1054                 if runner.Container.Output != "" {
1055                         // Container output is already set.
1056                         runner.OutputPDH = &runner.Container.Output
1057                         return nil
1058                 }
1059         }
1060
1061         if runner.HostOutputDir == "" {
1062                 return nil
1063         }
1064
1065         _, err := os.Stat(runner.HostOutputDir)
1066         if err != nil {
1067                 return fmt.Errorf("While checking host output path: %v", err)
1068         }
1069
1070         // Pre-populate output from the configured mount points
1071         var binds []string
1072         for bind, mnt := range runner.Container.Mounts {
1073                 if mnt.Kind == "collection" {
1074                         binds = append(binds, bind)
1075                 }
1076         }
1077         sort.Strings(binds)
1078
1079         var manifestText string
1080
1081         collectionMetafile := fmt.Sprintf("%s/.arvados#collection", runner.HostOutputDir)
1082         _, err = os.Stat(collectionMetafile)
1083         if err != nil {
1084                 // Regular directory
1085
1086                 cw := CollectionWriter{0, runner.Kc, nil, nil, sync.Mutex{}}
1087                 walkUpload := cw.BeginUpload(runner.HostOutputDir, runner.CrunchLog.Logger)
1088
1089                 var m string
1090                 err = filepath.Walk(runner.HostOutputDir, func(path string, info os.FileInfo, err error) error {
1091                         m, err = runner.UploadOutputFile(path, info, err, binds, walkUpload, "", "")
1092                         if err == nil {
1093                                 manifestText = manifestText + m
1094                         }
1095                         return err
1096                 })
1097
1098                 cw.EndUpload(walkUpload)
1099
1100                 if err != nil {
1101                         return fmt.Errorf("While uploading output files: %v", err)
1102                 }
1103
1104                 m, err = cw.ManifestText()
1105                 manifestText = manifestText + m
1106                 if err != nil {
1107                         return fmt.Errorf("While uploading output files: %v", err)
1108                 }
1109         } else {
1110                 // FUSE mount directory
1111                 file, openerr := os.Open(collectionMetafile)
1112                 if openerr != nil {
1113                         return fmt.Errorf("While opening FUSE metafile: %v", err)
1114                 }
1115                 defer file.Close()
1116
1117                 var rec arvados.Collection
1118                 err = json.NewDecoder(file).Decode(&rec)
1119                 if err != nil {
1120                         return fmt.Errorf("While reading FUSE metafile: %v", err)
1121                 }
1122                 manifestText = rec.ManifestText
1123         }
1124
1125         for _, bind := range binds {
1126                 mnt := runner.Container.Mounts[bind]
1127
1128                 bindSuffix := strings.TrimPrefix(bind, runner.Container.OutputPath)
1129
1130                 if bindSuffix == bind || len(bindSuffix) <= 0 {
1131                         // either does not start with OutputPath or is OutputPath itself
1132                         continue
1133                 }
1134
1135                 if mnt.ExcludeFromOutput == true {
1136                         continue
1137                 }
1138
1139                 // append to manifest_text
1140                 m, err := runner.getCollectionManifestForPath(mnt, bindSuffix)
1141                 if err != nil {
1142                         return err
1143                 }
1144
1145                 manifestText = manifestText + m
1146         }
1147
1148         // Save output
1149         var response arvados.Collection
1150         manifest := manifest.Manifest{Text: manifestText}
1151         manifestText = manifest.Extract(".", ".").Text
1152         err = runner.ArvClient.Create("collections",
1153                 arvadosclient.Dict{
1154                         "ensure_unique_name": true,
1155                         "collection": arvadosclient.Dict{
1156                                 "is_trashed":    true,
1157                                 "name":          "output for " + runner.Container.UUID,
1158                                 "manifest_text": manifestText}},
1159                 &response)
1160         if err != nil {
1161                 return fmt.Errorf("While creating output collection: %v", err)
1162         }
1163         runner.OutputPDH = &response.PortableDataHash
1164         return nil
1165 }
1166
1167 var outputCollections = make(map[string]arvados.Collection)
1168
1169 // Fetch the collection for the mnt.PortableDataHash
1170 // Return the manifest_text fragment corresponding to the specified mnt.Path
1171 //  after making any required updates.
1172 //  Ex:
1173 //    If mnt.Path is not specified,
1174 //      return the entire manifest_text after replacing any "." with bindSuffix
1175 //    If mnt.Path corresponds to one stream,
1176 //      return the manifest_text for that stream after replacing that stream name with bindSuffix
1177 //    Otherwise, check if a filename in any one stream is being sought. Return the manifest_text
1178 //      for that stream after replacing stream name with bindSuffix minus the last word
1179 //      and the file name with last word of the bindSuffix
1180 //  Allowed path examples:
1181 //    "path":"/"
1182 //    "path":"/subdir1"
1183 //    "path":"/subdir1/subdir2"
1184 //    "path":"/subdir/filename" etc
1185 func (runner *ContainerRunner) getCollectionManifestForPath(mnt arvados.Mount, bindSuffix string) (string, error) {
1186         collection := outputCollections[mnt.PortableDataHash]
1187         if collection.PortableDataHash == "" {
1188                 err := runner.ArvClient.Get("collections", mnt.PortableDataHash, nil, &collection)
1189                 if err != nil {
1190                         return "", fmt.Errorf("While getting collection for %v: %v", mnt.PortableDataHash, err)
1191                 }
1192                 outputCollections[mnt.PortableDataHash] = collection
1193         }
1194
1195         if collection.ManifestText == "" {
1196                 runner.CrunchLog.Printf("No manifest text for collection %v", collection.PortableDataHash)
1197                 return "", nil
1198         }
1199
1200         mft := manifest.Manifest{Text: collection.ManifestText}
1201         extracted := mft.Extract(mnt.Path, bindSuffix)
1202         if extracted.Err != nil {
1203                 return "", fmt.Errorf("Error parsing manifest for %v: %v", mnt.PortableDataHash, extracted.Err.Error())
1204         }
1205         return extracted.Text, nil
1206 }
1207
1208 func (runner *ContainerRunner) CleanupDirs() {
1209         if runner.ArvMount != nil {
1210                 umount := exec.Command("fusermount", "-z", "-u", runner.ArvMountPoint)
1211                 umnterr := umount.Run()
1212                 if umnterr != nil {
1213                         runner.CrunchLog.Printf("While running fusermount: %v", umnterr)
1214                 }
1215
1216                 mnterr := <-runner.ArvMountExit
1217                 if mnterr != nil {
1218                         runner.CrunchLog.Printf("Arv-mount exit error: %v", mnterr)
1219                 }
1220         }
1221
1222         for _, tmpdir := range runner.CleanupTempDir {
1223                 rmerr := os.RemoveAll(tmpdir)
1224                 if rmerr != nil {
1225                         runner.CrunchLog.Printf("While cleaning up temporary directory %s: %v", tmpdir, rmerr)
1226                 }
1227         }
1228 }
1229
1230 // CommitLogs posts the collection containing the final container logs.
1231 func (runner *ContainerRunner) CommitLogs() error {
1232         runner.CrunchLog.Print(runner.finalState)
1233         runner.CrunchLog.Close()
1234
1235         // Closing CrunchLog above allows it to be committed to Keep at this
1236         // point, but re-open crunch log with ArvClient in case there are any
1237         // other further (such as failing to write the log to Keep!) while
1238         // shutting down
1239         runner.CrunchLog = NewThrottledLogger(&ArvLogWriter{ArvClient: runner.ArvClient,
1240                 UUID: runner.Container.UUID, loggingStream: "crunch-run", writeCloser: nil})
1241
1242         if runner.LogsPDH != nil {
1243                 // If we have already assigned something to LogsPDH,
1244                 // we must be closing the re-opened log, which won't
1245                 // end up getting attached to the container record and
1246                 // therefore doesn't need to be saved as a collection
1247                 // -- it exists only to send logs to other channels.
1248                 return nil
1249         }
1250
1251         mt, err := runner.LogCollection.ManifestText()
1252         if err != nil {
1253                 return fmt.Errorf("While creating log manifest: %v", err)
1254         }
1255
1256         var response arvados.Collection
1257         err = runner.ArvClient.Create("collections",
1258                 arvadosclient.Dict{
1259                         "ensure_unique_name": true,
1260                         "collection": arvadosclient.Dict{
1261                                 "is_trashed":    true,
1262                                 "name":          "logs for " + runner.Container.UUID,
1263                                 "manifest_text": mt}},
1264                 &response)
1265         if err != nil {
1266                 return fmt.Errorf("While creating log collection: %v", err)
1267         }
1268         runner.LogsPDH = &response.PortableDataHash
1269         return nil
1270 }
1271
1272 // UpdateContainerRunning updates the container state to "Running"
1273 func (runner *ContainerRunner) UpdateContainerRunning() error {
1274         runner.cStateLock.Lock()
1275         defer runner.cStateLock.Unlock()
1276         if runner.cCancelled {
1277                 return ErrCancelled
1278         }
1279         return runner.ArvClient.Update("containers", runner.Container.UUID,
1280                 arvadosclient.Dict{"container": arvadosclient.Dict{"state": "Running"}}, nil)
1281 }
1282
1283 // ContainerToken returns the api_token the container (and any
1284 // arv-mount processes) are allowed to use.
1285 func (runner *ContainerRunner) ContainerToken() (string, error) {
1286         if runner.token != "" {
1287                 return runner.token, nil
1288         }
1289
1290         var auth arvados.APIClientAuthorization
1291         err := runner.ArvClient.Call("GET", "containers", runner.Container.UUID, "auth", nil, &auth)
1292         if err != nil {
1293                 return "", err
1294         }
1295         runner.token = auth.APIToken
1296         return runner.token, nil
1297 }
1298
1299 // UpdateContainerComplete updates the container record state on API
1300 // server to "Complete" or "Cancelled"
1301 func (runner *ContainerRunner) UpdateContainerFinal() error {
1302         update := arvadosclient.Dict{}
1303         update["state"] = runner.finalState
1304         if runner.LogsPDH != nil {
1305                 update["log"] = *runner.LogsPDH
1306         }
1307         if runner.finalState == "Complete" {
1308                 if runner.ExitCode != nil {
1309                         update["exit_code"] = *runner.ExitCode
1310                 }
1311                 if runner.OutputPDH != nil {
1312                         update["output"] = *runner.OutputPDH
1313                 }
1314         }
1315         return runner.ArvClient.Update("containers", runner.Container.UUID, arvadosclient.Dict{"container": update}, nil)
1316 }
1317
1318 // IsCancelled returns the value of Cancelled, with goroutine safety.
1319 func (runner *ContainerRunner) IsCancelled() bool {
1320         runner.cStateLock.Lock()
1321         defer runner.cStateLock.Unlock()
1322         return runner.cCancelled
1323 }
1324
1325 // NewArvLogWriter creates an ArvLogWriter
1326 func (runner *ContainerRunner) NewArvLogWriter(name string) io.WriteCloser {
1327         return &ArvLogWriter{ArvClient: runner.ArvClient, UUID: runner.Container.UUID, loggingStream: name,
1328                 writeCloser: runner.LogCollection.Open(name + ".txt")}
1329 }
1330
1331 // Run the full container lifecycle.
1332 func (runner *ContainerRunner) Run() (err error) {
1333         runner.CrunchLog.Printf("Executing container '%s'", runner.Container.UUID)
1334
1335         hostname, hosterr := os.Hostname()
1336         if hosterr != nil {
1337                 runner.CrunchLog.Printf("Error getting hostname '%v'", hosterr)
1338         } else {
1339                 runner.CrunchLog.Printf("Executing on host '%s'", hostname)
1340         }
1341
1342         // Clean up temporary directories _after_ finalizing
1343         // everything (if we've made any by then)
1344         defer runner.CleanupDirs()
1345
1346         runner.finalState = "Queued"
1347
1348         defer func() {
1349                 // checkErr prints e (unless it's nil) and sets err to
1350                 // e (unless err is already non-nil). Thus, if err
1351                 // hasn't already been assigned when Run() returns,
1352                 // this cleanup func will cause Run() to return the
1353                 // first non-nil error that is passed to checkErr().
1354                 checkErr := func(e error) {
1355                         if e == nil {
1356                                 return
1357                         }
1358                         runner.CrunchLog.Print(e)
1359                         if err == nil {
1360                                 err = e
1361                         }
1362                         if runner.finalState == "Complete" {
1363                                 // There was an error in the finalization.
1364                                 runner.finalState = "Cancelled"
1365                         }
1366                 }
1367
1368                 // Log the error encountered in Run(), if any
1369                 checkErr(err)
1370
1371                 if runner.finalState == "Queued" {
1372                         runner.CrunchLog.Close()
1373                         runner.UpdateContainerFinal()
1374                         return
1375                 }
1376
1377                 if runner.IsCancelled() {
1378                         runner.finalState = "Cancelled"
1379                         // but don't return yet -- we still want to
1380                         // capture partial output and write logs
1381                 }
1382
1383                 checkErr(runner.CaptureOutput())
1384                 checkErr(runner.CommitLogs())
1385                 checkErr(runner.UpdateContainerFinal())
1386
1387                 // The real log is already closed, but then we opened
1388                 // a new one in case we needed to log anything while
1389                 // finalizing.
1390                 runner.CrunchLog.Close()
1391
1392                 runner.teardown()
1393         }()
1394
1395         err = runner.fetchContainerRecord()
1396         if err != nil {
1397                 return
1398         }
1399
1400         // setup signal handling
1401         runner.setupSignals()
1402
1403         // check for and/or load image
1404         err = runner.LoadImage()
1405         if err != nil {
1406                 runner.finalState = "Cancelled"
1407                 err = fmt.Errorf("While loading container image: %v", err)
1408                 return
1409         }
1410
1411         // set up FUSE mount and binds
1412         err = runner.SetupMounts()
1413         if err != nil {
1414                 runner.finalState = "Cancelled"
1415                 err = fmt.Errorf("While setting up mounts: %v", err)
1416                 return
1417         }
1418
1419         err = runner.CreateContainer()
1420         if err != nil {
1421                 return
1422         }
1423
1424         // Gather and record node information
1425         err = runner.LogNodeInfo()
1426         if err != nil {
1427                 return
1428         }
1429         // Save container.json record on log collection
1430         err = runner.LogContainerRecord()
1431         if err != nil {
1432                 return
1433         }
1434
1435         runner.StartCrunchstat()
1436
1437         if runner.IsCancelled() {
1438                 return
1439         }
1440
1441         err = runner.UpdateContainerRunning()
1442         if err != nil {
1443                 return
1444         }
1445         runner.finalState = "Cancelled"
1446
1447         err = runner.StartContainer()
1448         if err != nil {
1449                 return
1450         }
1451
1452         err = runner.WaitFinish()
1453         if err == nil {
1454                 runner.finalState = "Complete"
1455         }
1456         return
1457 }
1458
1459 // Fetch the current container record (uuid = runner.Container.UUID)
1460 // into runner.Container.
1461 func (runner *ContainerRunner) fetchContainerRecord() error {
1462         reader, err := runner.ArvClient.CallRaw("GET", "containers", runner.Container.UUID, "", nil)
1463         if err != nil {
1464                 return fmt.Errorf("error fetching container record: %v", err)
1465         }
1466         defer reader.Close()
1467
1468         dec := json.NewDecoder(reader)
1469         dec.UseNumber()
1470         err = dec.Decode(&runner.Container)
1471         if err != nil {
1472                 return fmt.Errorf("error decoding container record: %v", err)
1473         }
1474         return nil
1475 }
1476
1477 // NewContainerRunner creates a new container runner.
1478 func NewContainerRunner(api IArvadosClient,
1479         kc IKeepClient,
1480         docker ThinDockerClient,
1481         containerUUID string) *ContainerRunner {
1482
1483         cr := &ContainerRunner{ArvClient: api, Kc: kc, Docker: docker}
1484         cr.NewLogWriter = cr.NewArvLogWriter
1485         cr.RunArvMount = cr.ArvMountCmd
1486         cr.MkTempDir = ioutil.TempDir
1487         cr.LogCollection = &CollectionWriter{0, kc, nil, nil, sync.Mutex{}}
1488         cr.Container.UUID = containerUUID
1489         cr.CrunchLog = NewThrottledLogger(cr.NewLogWriter("crunch-run"))
1490         cr.CrunchLog.Immediate = log.New(os.Stderr, containerUUID+" ", 0)
1491
1492         loadLogThrottleParams(api)
1493
1494         return cr
1495 }
1496
1497 func main() {
1498         statInterval := flag.Duration("crunchstat-interval", 10*time.Second, "sampling period for periodic resource usage reporting")
1499         cgroupRoot := flag.String("cgroup-root", "/sys/fs/cgroup", "path to sysfs cgroup tree")
1500         cgroupParent := flag.String("cgroup-parent", "docker", "name of container's parent cgroup (ignored if -cgroup-parent-subsystem is used)")
1501         cgroupParentSubsystem := flag.String("cgroup-parent-subsystem", "", "use current cgroup for given subsystem as parent cgroup for container")
1502         caCertsPath := flag.String("ca-certs", "", "Path to TLS root certificates")
1503         enableNetwork := flag.String("container-enable-networking", "default",
1504                 `Specify if networking should be enabled for container.  One of 'default', 'always':
1505         default: only enable networking if container requests it.
1506         always:  containers always have networking enabled
1507         `)
1508         networkMode := flag.String("container-network-mode", "default",
1509                 `Set networking mode for container.  Corresponds to Docker network mode (--net).
1510         `)
1511         memprofile := flag.String("memprofile", "", "write memory profile to `file` after running container")
1512         flag.Parse()
1513
1514         containerId := flag.Arg(0)
1515
1516         if *caCertsPath != "" {
1517                 arvadosclient.CertFiles = []string{*caCertsPath}
1518         }
1519
1520         api, err := arvadosclient.MakeArvadosClient()
1521         if err != nil {
1522                 log.Fatalf("%s: %v", containerId, err)
1523         }
1524         api.Retries = 8
1525
1526         var kc *keepclient.KeepClient
1527         kc, err = keepclient.MakeKeepClient(api)
1528         if err != nil {
1529                 log.Fatalf("%s: %v", containerId, err)
1530         }
1531         kc.BlockCache = &keepclient.BlockCache{MaxBlocks: 2}
1532         kc.Retries = 4
1533
1534         var docker *dockerclient.Client
1535         // API version 1.21 corresponds to Docker 1.9, which is currently the
1536         // minimum version we want to support.
1537         docker, err = dockerclient.NewClient(dockerclient.DefaultDockerHost, "1.21", nil, nil)
1538         if err != nil {
1539                 log.Fatalf("%s: %v", containerId, err)
1540         }
1541
1542         dockerClientProxy := ThinDockerClientProxy{Docker: docker}
1543
1544         cr := NewContainerRunner(api, kc, dockerClientProxy, containerId)
1545         cr.statInterval = *statInterval
1546         cr.cgroupRoot = *cgroupRoot
1547         cr.expectCgroupParent = *cgroupParent
1548         cr.enableNetwork = *enableNetwork
1549         cr.networkMode = *networkMode
1550         if *cgroupParentSubsystem != "" {
1551                 p := findCgroup(*cgroupParentSubsystem)
1552                 cr.setCgroupParent = p
1553                 cr.expectCgroupParent = p
1554         }
1555
1556         runerr := cr.Run()
1557
1558         if *memprofile != "" {
1559                 f, err := os.Create(*memprofile)
1560                 if err != nil {
1561                         log.Printf("could not create memory profile: ", err)
1562                 }
1563                 runtime.GC() // get up-to-date statistics
1564                 if err := pprof.WriteHeapProfile(f); err != nil {
1565                         log.Printf("could not write memory profile: ", err)
1566                 }
1567                 closeerr := f.Close()
1568                 if closeerr != nil {
1569                         log.Printf("closing memprofile file: ", err)
1570                 }
1571         }
1572
1573         if runerr != nil {
1574                 log.Fatalf("%s: %v", containerId, runerr)
1575         }
1576 }