20756: Check systemd compatibility before enabling resource limits.
[arvados.git] / lib / crunchrun / singularity.go
1 // Copyright (C) The Arvados Authors. All rights reserved.
2 //
3 // SPDX-License-Identifier: AGPL-3.0
4
5 package crunchrun
6
7 import (
8         "bytes"
9         "context"
10         "errors"
11         "fmt"
12         "io/ioutil"
13         "net"
14         "os"
15         "os/exec"
16         "os/user"
17         "regexp"
18         "sort"
19         "strconv"
20         "strings"
21         "syscall"
22         "time"
23
24         "git.arvados.org/arvados.git/sdk/go/arvados"
25 )
26
27 type singularityExecutor struct {
28         logf          func(string, ...interface{})
29         fakeroot      bool // use --fakeroot flag, allow --network=bridge when non-root (currently only used by tests)
30         spec          containerSpec
31         tmpdir        string
32         child         *exec.Cmd
33         imageFilename string // "sif" image
34 }
35
36 func newSingularityExecutor(logf func(string, ...interface{})) (*singularityExecutor, error) {
37         tmpdir, err := ioutil.TempDir("", "crunch-run-singularity-")
38         if err != nil {
39                 return nil, err
40         }
41         return &singularityExecutor{
42                 logf:   logf,
43                 tmpdir: tmpdir,
44         }, nil
45 }
46
47 func (e *singularityExecutor) Runtime() string {
48         buf, err := exec.Command("singularity", "--version").CombinedOutput()
49         if err != nil {
50                 return "singularity (unknown version)"
51         }
52         return strings.TrimSuffix(string(buf), "\n")
53 }
54
55 func (e *singularityExecutor) getOrCreateProject(ownerUuid string, name string, containerClient *arvados.Client) (*arvados.Group, error) {
56         var gp arvados.GroupList
57         err := containerClient.RequestAndDecode(&gp,
58                 arvados.EndpointGroupList.Method,
59                 arvados.EndpointGroupList.Path,
60                 nil, arvados.ListOptions{Filters: []arvados.Filter{
61                         arvados.Filter{"owner_uuid", "=", ownerUuid},
62                         arvados.Filter{"name", "=", name},
63                         arvados.Filter{"group_class", "=", "project"},
64                 },
65                         Limit: 1})
66         if err != nil {
67                 return nil, err
68         }
69         if len(gp.Items) == 1 {
70                 return &gp.Items[0], nil
71         }
72
73         var rgroup arvados.Group
74         err = containerClient.RequestAndDecode(&rgroup,
75                 arvados.EndpointGroupCreate.Method,
76                 arvados.EndpointGroupCreate.Path,
77                 nil, map[string]interface{}{
78                         "group": map[string]string{
79                                 "owner_uuid":  ownerUuid,
80                                 "name":        name,
81                                 "group_class": "project",
82                         },
83                 })
84         if err != nil {
85                 return nil, err
86         }
87         return &rgroup, nil
88 }
89
90 func (e *singularityExecutor) checkImageCache(dockerImageID string, container arvados.Container, arvMountPoint string,
91         containerClient *arvados.Client) (collection *arvados.Collection, err error) {
92
93         // Cache the image to keep
94         cacheGroup, err := e.getOrCreateProject(container.RuntimeUserUUID, ".cache", containerClient)
95         if err != nil {
96                 return nil, fmt.Errorf("error getting '.cache' project: %v", err)
97         }
98         imageGroup, err := e.getOrCreateProject(cacheGroup.UUID, "auto-generated singularity images", containerClient)
99         if err != nil {
100                 return nil, fmt.Errorf("error getting 'auto-generated singularity images' project: %s", err)
101         }
102
103         collectionName := fmt.Sprintf("singularity image for %v", dockerImageID)
104         var cl arvados.CollectionList
105         err = containerClient.RequestAndDecode(&cl,
106                 arvados.EndpointCollectionList.Method,
107                 arvados.EndpointCollectionList.Path,
108                 nil, arvados.ListOptions{Filters: []arvados.Filter{
109                         arvados.Filter{"owner_uuid", "=", imageGroup.UUID},
110                         arvados.Filter{"name", "=", collectionName},
111                 },
112                         Limit: 1})
113         if err != nil {
114                 return nil, fmt.Errorf("error querying for collection '%v': %v", collectionName, err)
115         }
116         var imageCollection arvados.Collection
117         if len(cl.Items) == 1 {
118                 imageCollection = cl.Items[0]
119         } else {
120                 collectionName := "converting " + collectionName
121                 exp := time.Now().Add(24 * 7 * 2 * time.Hour)
122                 err = containerClient.RequestAndDecode(&imageCollection,
123                         arvados.EndpointCollectionCreate.Method,
124                         arvados.EndpointCollectionCreate.Path,
125                         nil, map[string]interface{}{
126                                 "collection": map[string]string{
127                                         "owner_uuid": imageGroup.UUID,
128                                         "name":       collectionName,
129                                         "trash_at":   exp.UTC().Format(time.RFC3339),
130                                 },
131                                 "ensure_unique_name": true,
132                         })
133                 if err != nil {
134                         return nil, fmt.Errorf("error creating '%v' collection: %s", collectionName, err)
135                 }
136         }
137
138         return &imageCollection, nil
139 }
140
141 // LoadImage will satisfy ContainerExecuter interface transforming
142 // containerImage into a sif file for later use.
143 func (e *singularityExecutor) LoadImage(dockerImageID string, imageTarballPath string, container arvados.Container, arvMountPoint string,
144         containerClient *arvados.Client) error {
145
146         var imageFilename string
147         var sifCollection *arvados.Collection
148         var err error
149         if containerClient != nil {
150                 sifCollection, err = e.checkImageCache(dockerImageID, container, arvMountPoint, containerClient)
151                 if err != nil {
152                         return err
153                 }
154                 imageFilename = fmt.Sprintf("%s/by_uuid/%s/image.sif", arvMountPoint, sifCollection.UUID)
155         } else {
156                 imageFilename = e.tmpdir + "/image.sif"
157         }
158
159         if _, err := os.Stat(imageFilename); os.IsNotExist(err) {
160                 // Make sure the docker image is readable, and error
161                 // out if not.
162                 if _, err := os.Stat(imageTarballPath); err != nil {
163                         return err
164                 }
165
166                 e.logf("building singularity image")
167                 // "singularity build" does not accept a
168                 // docker-archive://... filename containing a ":" character,
169                 // as in "/path/to/sha256:abcd...1234.tar". Workaround: make a
170                 // symlink that doesn't have ":" chars.
171                 err := os.Symlink(imageTarballPath, e.tmpdir+"/image.tar")
172                 if err != nil {
173                         return err
174                 }
175
176                 // Set up a cache and tmp dir for singularity build
177                 err = os.Mkdir(e.tmpdir+"/cache", 0700)
178                 if err != nil {
179                         return err
180                 }
181                 defer os.RemoveAll(e.tmpdir + "/cache")
182                 err = os.Mkdir(e.tmpdir+"/tmp", 0700)
183                 if err != nil {
184                         return err
185                 }
186                 defer os.RemoveAll(e.tmpdir + "/tmp")
187
188                 build := exec.Command("singularity", "build", imageFilename, "docker-archive://"+e.tmpdir+"/image.tar")
189                 build.Env = os.Environ()
190                 build.Env = append(build.Env, "SINGULARITY_CACHEDIR="+e.tmpdir+"/cache")
191                 build.Env = append(build.Env, "SINGULARITY_TMPDIR="+e.tmpdir+"/tmp")
192                 e.logf("%v", build.Args)
193                 out, err := build.CombinedOutput()
194                 // INFO:    Starting build...
195                 // Getting image source signatures
196                 // Copying blob ab15617702de done
197                 // Copying config 651e02b8a2 done
198                 // Writing manifest to image destination
199                 // Storing signatures
200                 // 2021/04/22 14:42:14  info unpack layer: sha256:21cbfd3a344c52b197b9fa36091e66d9cbe52232703ff78d44734f85abb7ccd3
201                 // INFO:    Creating SIF file...
202                 // INFO:    Build complete: arvados-jobs.latest.sif
203                 e.logf("%s", out)
204                 if err != nil {
205                         return err
206                 }
207         }
208
209         if containerClient == nil {
210                 e.imageFilename = imageFilename
211                 return nil
212         }
213
214         // update TTL to now + two weeks
215         exp := time.Now().Add(24 * 7 * 2 * time.Hour)
216
217         uuidPath, err := containerClient.PathForUUID("update", sifCollection.UUID)
218         if err != nil {
219                 e.logf("error PathForUUID: %v", err)
220                 return nil
221         }
222         var imageCollection arvados.Collection
223         err = containerClient.RequestAndDecode(&imageCollection,
224                 arvados.EndpointCollectionUpdate.Method,
225                 uuidPath,
226                 nil, map[string]interface{}{
227                         "collection": map[string]string{
228                                 "name":     fmt.Sprintf("singularity image for %v", dockerImageID),
229                                 "trash_at": exp.UTC().Format(time.RFC3339),
230                         },
231                 })
232         if err == nil {
233                 // If we just wrote the image to the cache, the
234                 // response also returns the updated PDH
235                 e.imageFilename = fmt.Sprintf("%s/by_id/%s/image.sif", arvMountPoint, imageCollection.PortableDataHash)
236                 return nil
237         }
238
239         e.logf("error updating/renaming collection for cached sif image: %v", err)
240         // Failed to update but maybe it lost a race and there is
241         // another cached collection in the same place, so check the cache
242         // again
243         sifCollection, err = e.checkImageCache(dockerImageID, container, arvMountPoint, containerClient)
244         if err != nil {
245                 return err
246         }
247         e.imageFilename = fmt.Sprintf("%s/by_id/%s/image.sif", arvMountPoint, sifCollection.PortableDataHash)
248
249         return nil
250 }
251
252 func (e *singularityExecutor) Create(spec containerSpec) error {
253         e.spec = spec
254         return nil
255 }
256
257 func (e *singularityExecutor) execCmd(path string) *exec.Cmd {
258         args := []string{path, "exec", "--containall", "--cleanenv", "--pwd=" + e.spec.WorkingDir}
259         if e.fakeroot {
260                 args = append(args, "--fakeroot")
261         }
262         if !e.spec.EnableNetwork {
263                 args = append(args, "--net", "--network=none")
264         } else if u, err := user.Current(); err == nil && u.Uid == "0" || e.fakeroot {
265                 // Specifying --network=bridge fails unless (a) we are
266                 // root, (b) we are using --fakeroot, or (c)
267                 // singularity has been configured to allow our
268                 // uid/gid to use it like so:
269                 //
270                 // singularity config global --set 'allow net networks' bridge
271                 // singularity config global --set 'allow net groups' mygroup
272                 args = append(args, "--net", "--network=bridge")
273         }
274         if e.spec.CUDADeviceCount != 0 {
275                 args = append(args, "--nv")
276         }
277
278         // If we ask for resource limits that aren't supported,
279         // singularity will not run the container at all. So we probe
280         // for support first, and only apply the limits that appear to
281         // be supported.
282         //
283         // Default debian configuration lets non-root users set memory
284         // limits but not CPU limits, so we enable/disable those
285         // limits independently.
286         //
287         // https://rootlesscontaine.rs/getting-started/common/cgroup2/
288         checkCgroupSupport(e.logf)
289         if e.spec.VCPUs > 0 {
290                 if cgroupSupport["cpu"] {
291                         args = append(args, "--cpus", fmt.Sprintf("%d", e.spec.VCPUs))
292                 } else {
293                         e.logf("cpu limits are not supported by current systemd/cgroup configuration, not setting --cpu %d", e.spec.VCPUs)
294                 }
295         }
296         if e.spec.RAM > 0 {
297                 if cgroupSupport["memory"] {
298                         args = append(args, "--memory", fmt.Sprintf("%d", e.spec.RAM))
299                 } else {
300                         e.logf("memory limits are not supported by current systemd/cgroup configuration, not setting --memory %d", e.spec.RAM)
301                 }
302         }
303
304         readonlyflag := map[bool]string{
305                 false: "rw",
306                 true:  "ro",
307         }
308         var binds []string
309         for path, _ := range e.spec.BindMounts {
310                 binds = append(binds, path)
311         }
312         sort.Strings(binds)
313         for _, path := range binds {
314                 mount := e.spec.BindMounts[path]
315                 if path == e.spec.Env["HOME"] {
316                         // Singularity treats $HOME as special case
317                         args = append(args, "--home", mount.HostPath+":"+path)
318                 } else {
319                         args = append(args, "--bind", mount.HostPath+":"+path+":"+readonlyflag[mount.ReadOnly])
320                 }
321         }
322
323         // This is for singularity 3.5.2. There are some behaviors
324         // that will change in singularity 3.6, please see:
325         // https://sylabs.io/guides/3.7/user-guide/environment_and_metadata.html
326         // https://sylabs.io/guides/3.5/user-guide/environment_and_metadata.html
327         env := make([]string, 0, len(e.spec.Env))
328         for k, v := range e.spec.Env {
329                 if k == "HOME" {
330                         // Singularity treats $HOME as special case,
331                         // this is handled with --home above
332                         continue
333                 }
334                 env = append(env, "SINGULARITYENV_"+k+"="+v)
335         }
336
337         // Singularity always makes all nvidia devices visible to the
338         // container.  If a resource manager such as slurm or LSF told
339         // us to select specific devices we need to propagate that.
340         if cudaVisibleDevices := os.Getenv("CUDA_VISIBLE_DEVICES"); cudaVisibleDevices != "" {
341                 // If a resource manager such as slurm or LSF told
342                 // us to select specific devices we need to propagate that.
343                 env = append(env, "SINGULARITYENV_CUDA_VISIBLE_DEVICES="+cudaVisibleDevices)
344         }
345         // Singularity's default behavior is to evaluate each
346         // SINGULARITYENV_* env var with a shell as a double-quoted
347         // string and pass the result to the contained
348         // process. Singularity 3.10+ has an option to pass env vars
349         // through literally without evaluating, which is what we
350         // want. See https://github.com/sylabs/singularity/pull/704
351         // and https://dev.arvados.org/issues/19081
352         env = append(env, "SINGULARITY_NO_EVAL=1")
353
354         // If we don't propagate XDG_RUNTIME_DIR and
355         // DBUS_SESSION_BUS_ADDRESS, singularity resource limits fail
356         // with "FATAL: container creation failed: while applying
357         // cgroups config: system configuration does not support
358         // cgroup management" or "FATAL: container creation failed:
359         // while applying cgroups config: rootless cgroups require a
360         // D-Bus session - check that XDG_RUNTIME_DIR and
361         // DBUS_SESSION_BUS_ADDRESS are set".
362         env = append(env, "XDG_RUNTIME_DIR="+os.Getenv("XDG_RUNTIME_DIR"))
363         env = append(env, "DBUS_SESSION_BUS_ADDRESS="+os.Getenv("DBUS_SESSION_BUS_ADDRESS"))
364
365         args = append(args, e.imageFilename)
366         args = append(args, e.spec.Command...)
367
368         return &exec.Cmd{
369                 Path:   path,
370                 Args:   args,
371                 Env:    env,
372                 Stdin:  e.spec.Stdin,
373                 Stdout: e.spec.Stdout,
374                 Stderr: e.spec.Stderr,
375         }
376 }
377
378 func (e *singularityExecutor) Start() error {
379         path, err := exec.LookPath("singularity")
380         if err != nil {
381                 return err
382         }
383         child := e.execCmd(path)
384         err = child.Start()
385         if err != nil {
386                 return err
387         }
388         e.child = child
389         return nil
390 }
391
392 func (e *singularityExecutor) Pid() int {
393         childproc, err := e.containedProcess()
394         if err != nil {
395                 return 0
396         }
397         return childproc
398 }
399
400 func (e *singularityExecutor) Stop() error {
401         if e.child == nil || e.child.Process == nil {
402                 // no process started, or Wait already called
403                 return nil
404         }
405         if err := e.child.Process.Signal(syscall.Signal(0)); err != nil {
406                 // process already exited
407                 return nil
408         }
409         return e.child.Process.Signal(syscall.SIGKILL)
410 }
411
412 func (e *singularityExecutor) Wait(context.Context) (int, error) {
413         err := e.child.Wait()
414         if err, ok := err.(*exec.ExitError); ok {
415                 return err.ProcessState.ExitCode(), nil
416         }
417         if err != nil {
418                 return 0, err
419         }
420         return e.child.ProcessState.ExitCode(), nil
421 }
422
423 func (e *singularityExecutor) Close() {
424         err := os.RemoveAll(e.tmpdir)
425         if err != nil {
426                 e.logf("error removing temp dir: %s", err)
427         }
428 }
429
430 func (e *singularityExecutor) InjectCommand(ctx context.Context, detachKeys, username string, usingTTY bool, injectcmd []string) (*exec.Cmd, error) {
431         target, err := e.containedProcess()
432         if err != nil {
433                 return nil, err
434         }
435         return exec.CommandContext(ctx, "nsenter", append([]string{fmt.Sprintf("--target=%d", target), "--all"}, injectcmd...)...), nil
436 }
437
438 var (
439         errContainerHasNoIPAddress = errors.New("container has no IP address distinct from host")
440 )
441
442 func (e *singularityExecutor) IPAddress() (string, error) {
443         target, err := e.containedProcess()
444         if err != nil {
445                 return "", err
446         }
447         targetIPs, err := processIPs(target)
448         if err != nil {
449                 return "", err
450         }
451         selfIPs, err := processIPs(os.Getpid())
452         if err != nil {
453                 return "", err
454         }
455         for ip := range targetIPs {
456                 if !selfIPs[ip] {
457                         return ip, nil
458                 }
459         }
460         return "", errContainerHasNoIPAddress
461 }
462
463 func processIPs(pid int) (map[string]bool, error) {
464         fibtrie, err := os.ReadFile(fmt.Sprintf("/proc/%d/net/fib_trie", pid))
465         if err != nil {
466                 return nil, err
467         }
468
469         addrs := map[string]bool{}
470         // When we see a pair of lines like this:
471         //
472         //              |-- 10.1.2.3
473         //                 /32 host LOCAL
474         //
475         // ...we set addrs["10.1.2.3"] = true
476         lines := bytes.Split(fibtrie, []byte{'\n'})
477         for linenumber, line := range lines {
478                 if !bytes.HasSuffix(line, []byte("/32 host LOCAL")) {
479                         continue
480                 }
481                 if linenumber < 1 {
482                         continue
483                 }
484                 i := bytes.LastIndexByte(lines[linenumber-1], ' ')
485                 if i < 0 || i >= len(line)-7 {
486                         continue
487                 }
488                 addr := string(lines[linenumber-1][i+1:])
489                 if net.ParseIP(addr).To4() != nil {
490                         addrs[addr] = true
491                 }
492         }
493         return addrs, nil
494 }
495
496 var (
497         errContainerNotStarted = errors.New("container has not started yet")
498         errCannotFindChild     = errors.New("failed to find any process inside the container")
499         reProcStatusPPid       = regexp.MustCompile(`\nPPid:\t(\d+)\n`)
500 )
501
502 // Return the PID of a process that is inside the container (not
503 // necessarily the topmost/pid=1 process in the container).
504 func (e *singularityExecutor) containedProcess() (int, error) {
505         if e.child == nil || e.child.Process == nil {
506                 return 0, errContainerNotStarted
507         }
508         lsns, err := exec.Command("lsns").CombinedOutput()
509         if err != nil {
510                 return 0, fmt.Errorf("lsns: %w", err)
511         }
512         for _, line := range bytes.Split(lsns, []byte{'\n'}) {
513                 fields := bytes.Fields(line)
514                 if len(fields) < 4 {
515                         continue
516                 }
517                 if !bytes.Equal(fields[1], []byte("pid")) {
518                         continue
519                 }
520                 pid, err := strconv.ParseInt(string(fields[3]), 10, 64)
521                 if err != nil {
522                         return 0, fmt.Errorf("error parsing PID field in lsns output: %q", fields[3])
523                 }
524                 for parent := pid; ; {
525                         procstatus, err := os.ReadFile(fmt.Sprintf("/proc/%d/status", parent))
526                         if err != nil {
527                                 break
528                         }
529                         m := reProcStatusPPid.FindSubmatch(procstatus)
530                         if m == nil {
531                                 break
532                         }
533                         parent, err = strconv.ParseInt(string(m[1]), 10, 64)
534                         if err != nil {
535                                 break
536                         }
537                         if int(parent) == e.child.Process.Pid {
538                                 return int(pid), nil
539                         }
540                 }
541         }
542         return 0, errCannotFindChild
543 }