12552: Prioritize containers according to top-level requests.
[arvados.git] / services / crunch-dispatch-slurm / squeue.go
index 61decde61c4bd61d0a92e96bde20ff0c82780f57..ee79c6f774c1ca4cb277f1c356ebca792d790f49 100644 (file)
+// Copyright (C) The Arvados Authors. All rights reserved.
+//
+// SPDX-License-Identifier: AGPL-3.0
+
 package main
 
 import (
-       "bufio"
+       "bytes"
+       "fmt"
        "log"
-       "os/exec"
+       "sort"
+       "strings"
        "sync"
        "time"
 )
 
+type slurmJob struct {
+       uuid         string
+       wantPriority int64
+       priority     int64 // current slurm priority (incorporates nice value)
+       nice         int64 // current slurm nice value
+}
+
 // Squeue implements asynchronous polling monitor of the SLURM queue using the
 // command 'squeue'.
-type Squeue struct {
-       squeueContents []string
-       squeueDone     chan struct{}
-       squeueCond     *sync.Cond
-       SlurmLock      sync.Mutex
+type SqueueChecker struct {
+       Period         time.Duration
+       PrioritySpread int64
+       Slurm          Slurm
+       queue          map[string]*slurmJob
+       startOnce      sync.Once
+       done           chan struct{}
+       sync.Cond
 }
 
-// squeueFunc
-func squeueFunc() *exec.Cmd {
-       return exec.Command("squeue", "--all", "--format=%j")
-}
+// HasUUID checks if a given container UUID is in the slurm queue.
+// This does not run squeue directly, but instead blocks until woken
+// up by next successful update of squeue.
+func (sqc *SqueueChecker) HasUUID(uuid string) bool {
+       sqc.startOnce.Do(sqc.start)
 
-var squeueCmd = squeueFunc
+       sqc.L.Lock()
+       defer sqc.L.Unlock()
 
-// RunSqueue runs squeue once and captures the output.  If it succeeds, set
-// "squeueContents" and then wake up any goroutines waiting squeueCond in
-// CheckSqueue().  If there was an error, log it and leave the threads blocked.
-func (squeue *Squeue) RunSqueue() {
-       var newSqueueContents []string
+       // block until next squeue broadcast signaling an update.
+       sqc.Wait()
+       _, exists := sqc.queue[uuid]
+       return exists
+}
 
-       // Mutex between squeue sync and running sbatch or scancel.  This
-       // establishes a sequence so that squeue doesn't run concurrently with
-       // sbatch or scancel; the next update of squeue will occur only after
-       // sbatch or scancel has completed.
-       squeue.SlurmLock.Lock()
-       defer squeue.SlurmLock.Unlock()
+// SetPriority sets or updates the desired (Arvados) priority for a
+// container.
+func (sqc *SqueueChecker) SetPriority(uuid string, want int64) {
+       sqc.startOnce.Do(sqc.start)
+       sqc.L.Lock()
+       defer sqc.L.Unlock()
+       job, ok := sqc.queue[uuid]
+       if !ok {
+               // Wait in case the slurm job was just submitted and
+               // will appear in the next squeue update.
+               sqc.Wait()
+               if job, ok = sqc.queue[uuid]; !ok {
+                       return
+               }
+       }
+       job.wantPriority = want
+}
 
-       // Also ensure unlock on all return paths
+// adjust slurm job nice values as needed to ensure slurm priority
+// order matches Arvados priority order.
+func (sqc *SqueueChecker) reniceAll() {
+       sqc.L.Lock()
+       defer sqc.L.Unlock()
 
-       cmd := squeueCmd()
-       sq, err := cmd.StdoutPipe()
-       if err != nil {
-               log.Printf("Error creating stdout pipe for squeue: %v", err)
-               return
-       }
-       err = cmd.Start()
-       if err != nil {
-               log.Printf("Error running squeue: %v", err)
-               return
+       jobs := make([]*slurmJob, 0, len(sqc.queue))
+       for _, j := range sqc.queue {
+               if j.wantPriority == 0 {
+                       // SLURM job with unknown Arvados priority
+                       // (perhaps it's not an Arvados job)
+                       continue
+               }
+               if j.priority == 0 {
+                       // SLURM <= 15.x implements "hold" by setting
+                       // priority to 0. If we include held jobs
+                       // here, we'll end up trying to push other
+                       // jobs below them using negative priority,
+                       // which won't help anything.
+                       continue
+               }
+               jobs = append(jobs, j)
        }
-       scanner := bufio.NewScanner(sq)
-       for scanner.Scan() {
-               newSqueueContents = append(newSqueueContents, scanner.Text())
+
+       sort.Slice(jobs, func(i, j int) bool {
+               if jobs[i].wantPriority != jobs[j].wantPriority {
+                       return jobs[i].wantPriority > jobs[j].wantPriority
+               } else {
+                       // break ties with container uuid --
+                       // otherwise, the ordering would change from
+                       // one interval to the next, and we'd do many
+                       // pointless slurm queue rearrangements.
+                       return jobs[i].uuid > jobs[j].uuid
+               }
+       })
+       renice := wantNice(jobs, sqc.PrioritySpread)
+       for i, job := range jobs {
+               if renice[i] == job.nice {
+                       continue
+               }
+               sqc.Slurm.Renice(job.uuid, renice[i])
        }
-       if err := scanner.Err(); err != nil {
-               cmd.Wait()
-               log.Printf("Error reading from squeue pipe: %v", err)
-               return
+}
+
+// Stop stops the squeue monitoring goroutine. Do not call HasUUID
+// after calling Stop.
+func (sqc *SqueueChecker) Stop() {
+       if sqc.done != nil {
+               close(sqc.done)
        }
+}
 
-       err = cmd.Wait()
-       if err != nil {
-               log.Printf("Error running squeue: %v", err)
+// check gets the names of jobs in the SLURM queue (running and
+// queued). If it succeeds, it updates sqc.queue and wakes up any
+// goroutines that are waiting in HasUUID() or All().
+func (sqc *SqueueChecker) check() {
+       // Mutex between squeue sync and running sbatch or scancel.  This
+       // establishes a sequence so that squeue doesn't run concurrently with
+       // sbatch or scancel; the next update of squeue will occur only after
+       // sbatch or scancel has completed.
+       sqc.L.Lock()
+       defer sqc.L.Unlock()
+
+       cmd := sqc.Slurm.QueueCommand([]string{"--all", "--noheader", "--format=%j %y %Q %T %r"})
+       stdout, stderr := &bytes.Buffer{}, &bytes.Buffer{}
+       cmd.Stdout, cmd.Stderr = stdout, stderr
+       if err := cmd.Run(); err != nil {
+               log.Printf("Error running %q %q: %s %q", cmd.Path, cmd.Args, err, stderr.String())
                return
        }
 
-       squeue.squeueCond.L.Lock()
-       squeue.squeueContents = newSqueueContents
-       squeue.squeueCond.Broadcast()
-       squeue.squeueCond.L.Unlock()
-}
-
-// CheckSqueue checks if a given container UUID is in the slurm queue.  This
-// does not run squeue directly, but instead blocks until woken up by next
-// successful update of squeue.
-func (squeue *Squeue) CheckSqueue(uuid string) bool {
-       squeue.squeueCond.L.Lock()
-       // block until next squeue broadcast signaling an update.
-       squeue.squeueCond.Wait()
-       contents := squeue.squeueContents
-       squeue.squeueCond.L.Unlock()
+       lines := strings.Split(stdout.String(), "\n")
+       newq := make(map[string]*slurmJob, len(lines))
+       for _, line := range lines {
+               if line == "" {
+                       continue
+               }
+               var uuid, state, reason string
+               var n, p int64
+               if _, err := fmt.Sscan(line, &uuid, &n, &p, &state, &reason); err != nil {
+                       log.Printf("warning: ignoring unparsed line in squeue output: %q", line)
+                       continue
+               }
+               replacing, ok := sqc.queue[uuid]
+               if !ok {
+                       replacing = &slurmJob{uuid: uuid}
+               }
+               replacing.priority = p
+               replacing.nice = n
+               newq[uuid] = replacing
 
-       for _, k := range contents {
-               if k == uuid {
-                       return true
+               if state == "PENDING" && reason == "BadConstraints" && p == 0 && replacing.wantPriority > 0 {
+                       // When using SLURM 14.x or 15.x, our queued
+                       // jobs land in this state when "scontrol
+                       // reconfigure" invalidates their feature
+                       // constraints by clearing all node features.
+                       // They stay in this state even after the
+                       // features reappear, until we run "scontrol
+                       // release {jobid}".
+                       //
+                       // "scontrol release" is silent and successful
+                       // regardless of whether the features have
+                       // reappeared, so rather than second-guessing
+                       // whether SLURM is ready, we just keep trying
+                       // this until it works.
+                       sqc.Slurm.Release(uuid)
                }
        }
-       return false
+       sqc.queue = newq
+       sqc.Broadcast()
 }
 
-// StartMonitor starts the squeue monitoring goroutine.
-func (squeue *Squeue) StartMonitor(pollInterval time.Duration) {
-       squeue.squeueCond = sync.NewCond(&sync.Mutex{})
-       squeue.squeueDone = make(chan struct{})
-       go squeue.SyncSqueue(pollInterval)
-}
-
-// Done stops the squeue monitoring goroutine.
-func (squeue *Squeue) Done() {
-       squeue.squeueDone <- struct{}{}
-       close(squeue.squeueDone)
+// Initialize, and start a goroutine to call check() once per
+// squeue.Period until terminated by calling Stop().
+func (sqc *SqueueChecker) start() {
+       sqc.L = &sync.Mutex{}
+       sqc.done = make(chan struct{})
+       go func() {
+               ticker := time.NewTicker(sqc.Period)
+               for {
+                       select {
+                       case <-sqc.done:
+                               ticker.Stop()
+                               return
+                       case <-ticker.C:
+                               sqc.check()
+                               sqc.reniceAll()
+                       }
+               }
+       }()
 }
 
-// SyncSqueue periodically polls RunSqueue() at the given duration until
-// terminated by calling Done().
-func (squeue *Squeue) SyncSqueue(pollInterval time.Duration) {
-       ticker := time.NewTicker(pollInterval)
-       for {
-               select {
-               case <-squeue.squeueDone:
-                       return
-               case <-ticker.C:
-                       squeue.RunSqueue()
-               }
+// All waits for the next squeue invocation, and returns all job
+// names reported by squeue.
+func (sqc *SqueueChecker) All() []string {
+       sqc.startOnce.Do(sqc.start)
+       sqc.L.Lock()
+       defer sqc.L.Unlock()
+       sqc.Wait()
+       var uuids []string
+       for u := range sqc.queue {
+               uuids = append(uuids, u)
        }
+       return uuids
 }