14325: Clean up unsafe concurrency in tests.
[arvados.git] / lib / dispatchcloud / dispatcher.go
index e422b3963d1d66bcc523271fde25aba3d5a0137f..3e3f5ee1993f0f0dfb98e4c68e02e80b1ee6f888 100644 (file)
@@ -21,68 +21,75 @@ import (
        "git.curoverse.com/arvados.git/sdk/go/arvados"
        "git.curoverse.com/arvados.git/sdk/go/auth"
        "git.curoverse.com/arvados.git/sdk/go/httpserver"
-       "github.com/Sirupsen/logrus"
+       "github.com/julienschmidt/httprouter"
        "github.com/prometheus/client_golang/prometheus"
        "github.com/prometheus/client_golang/prometheus/promhttp"
+       "github.com/sirupsen/logrus"
        "golang.org/x/crypto/ssh"
 )
 
 const (
-       defaultPollInterval = time.Second
+       defaultPollInterval     = time.Second
+       defaultStaleLockTimeout = time.Minute
 )
 
-type containerQueue interface {
-       scheduler.ContainerQueue
-       Update() error
-}
-
 type pool interface {
        scheduler.WorkerPool
-       View() []worker.View
+       Instances() []worker.InstanceView
+       SetIdleBehavior(cloud.InstanceID, worker.IdleBehavior) error
+       Stop()
 }
 
 type dispatcher struct {
        Cluster       *arvados.Cluster
        InstanceSetID cloud.InstanceSetID
 
-       logger       logrus.FieldLogger
-       reg          *prometheus.Registry
-       instanceSet  cloud.InstanceSet
-       pool         pool
-       queue        containerQueue
-       httpHandler  http.Handler
-       pollInterval time.Duration
-       sshKey       ssh.Signer
+       logger      logrus.FieldLogger
+       reg         *prometheus.Registry
+       instanceSet cloud.InstanceSet
+       pool        pool
+       queue       scheduler.ContainerQueue
+       httpHandler http.Handler
+       sshKey      ssh.Signer
 
        setupOnce sync.Once
        stop      chan struct{}
+       stopped   chan struct{}
+}
+
+// Start starts the dispatcher. Start can be called multiple times
+// with no ill effect.
+func (disp *dispatcher) Start() {
+       disp.setupOnce.Do(disp.setup)
 }
 
 // ServeHTTP implements service.Handler.
 func (disp *dispatcher) ServeHTTP(w http.ResponseWriter, r *http.Request) {
-       disp.setupOnce.Do(disp.setup)
+       disp.Start()
        disp.httpHandler.ServeHTTP(w, r)
 }
 
 // CheckHealth implements service.Handler.
 func (disp *dispatcher) CheckHealth() error {
-       disp.setupOnce.Do(disp.setup)
+       disp.Start()
        return nil
 }
 
 // Stop dispatching containers and release resources. Typically used
 // in tests.
 func (disp *dispatcher) Close() {
-       disp.setupOnce.Do(disp.setup)
+       disp.Start()
        select {
        case disp.stop <- struct{}{}:
        default:
        }
+       <-disp.stopped
 }
 
 // Make a worker.Executor for the given instance.
 func (disp *dispatcher) newExecutor(inst cloud.Instance) worker.Executor {
        exr := ssh_executor.New(inst)
+       exr.SetTargetPort(disp.Cluster.CloudVMs.SSHPort)
        exr.SetSigners(disp.sshKey)
        return exr
 }
@@ -108,6 +115,7 @@ func (disp *dispatcher) initialize() {
                }
        }
        disp.stop = make(chan struct{}, 1)
+       disp.stopped = make(chan struct{})
        disp.logger = logrus.StandardLogger()
 
        if key, err := ssh.ParsePrivateKey(disp.Cluster.Dispatch.PrivateKey); err != nil {
@@ -116,67 +124,59 @@ func (disp *dispatcher) initialize() {
                disp.sshKey = key
        }
 
-       instanceSet, err := newInstanceSet(disp.Cluster, disp.InstanceSetID)
+       instanceSet, err := newInstanceSet(disp.Cluster, disp.InstanceSetID, disp.logger)
        if err != nil {
                disp.logger.Fatalf("error initializing driver: %s", err)
        }
-       disp.instanceSet = &instanceSetProxy{instanceSet}
+       disp.instanceSet = instanceSet
        disp.reg = prometheus.NewRegistry()
-       disp.pool = worker.NewPool(disp.logger, disp.reg, disp.instanceSet, disp.newExecutor, disp.Cluster)
+       disp.pool = worker.NewPool(disp.logger, arvClient, disp.reg, disp.instanceSet, disp.newExecutor, disp.Cluster)
        disp.queue = container.NewQueue(disp.logger, disp.reg, disp.typeChooser, arvClient)
 
-       mux := http.NewServeMux()
-       mux.HandleFunc("/arvados/v1/dispatch/containers", disp.apiContainers)
-       mux.HandleFunc("/arvados/v1/dispatch/instances", disp.apiInstances)
-       metricsH := promhttp.HandlerFor(disp.reg, promhttp.HandlerOpts{
-               ErrorLog: disp.logger,
-       })
-       mux.Handle("/metrics", metricsH)
-       mux.Handle("/metrics.json", metricsH)
-       disp.httpHandler = auth.RequireLiteralToken(disp.Cluster.ManagementToken, mux)
-
-       if d := disp.Cluster.Dispatch.PollInterval; d > 0 {
-               disp.pollInterval = time.Duration(d)
+       if disp.Cluster.ManagementToken == "" {
+               disp.httpHandler = http.HandlerFunc(func(w http.ResponseWriter, r *http.Request) {
+                       http.Error(w, "Management API authentication is not configured", http.StatusForbidden)
+               })
        } else {
-               disp.pollInterval = defaultPollInterval
+               mux := httprouter.New()
+               mux.HandlerFunc("GET", "/arvados/v1/dispatch/containers", disp.apiContainers)
+               mux.HandlerFunc("GET", "/arvados/v1/dispatch/instances", disp.apiInstances)
+               mux.HandlerFunc("POST", "/arvados/v1/dispatch/instances/:instance_id/hold", disp.apiInstanceHold)
+               mux.HandlerFunc("POST", "/arvados/v1/dispatch/instances/:instance_id/drain", disp.apiInstanceDrain)
+               mux.HandlerFunc("POST", "/arvados/v1/dispatch/instances/:instance_id/run", disp.apiInstanceRun)
+               metricsH := promhttp.HandlerFor(disp.reg, promhttp.HandlerOpts{
+                       ErrorLog: disp.logger,
+               })
+               mux.Handler("GET", "/metrics", metricsH)
+               mux.Handler("GET", "/metrics.json", metricsH)
+               disp.httpHandler = auth.RequireLiteralToken(disp.Cluster.ManagementToken, mux)
        }
 }
 
 func (disp *dispatcher) run() {
+       defer close(disp.stopped)
        defer disp.instanceSet.Stop()
+       defer disp.pool.Stop()
 
-       t0 := time.Now()
-       disp.logger.Infof("FixStaleLocks starting.")
-       scheduler.FixStaleLocks(disp.logger, disp.queue, disp.pool, time.Duration(disp.Cluster.Dispatch.StaleLockTimeout))
-       disp.logger.Infof("FixStaleLocks finished (%s), starting scheduling.", time.Since(t0))
-
-       wp := disp.pool.Subscribe()
-       defer disp.pool.Unsubscribe(wp)
-       poll := time.NewTicker(disp.pollInterval)
-       for {
-               scheduler.Map(disp.logger, disp.queue, disp.pool)
-               scheduler.Sync(disp.logger, disp.queue, disp.pool)
-               select {
-               case <-disp.stop:
-                       return
-               case <-wp:
-               case <-poll.C:
-                       err := disp.queue.Update()
-                       if err != nil {
-                               disp.logger.Errorf("error updating queue: %s", err)
-                       }
-               }
+       staleLockTimeout := time.Duration(disp.Cluster.Dispatch.StaleLockTimeout)
+       if staleLockTimeout == 0 {
+               staleLockTimeout = defaultStaleLockTimeout
+       }
+       pollInterval := time.Duration(disp.Cluster.Dispatch.PollInterval)
+       if pollInterval <= 0 {
+               pollInterval = defaultPollInterval
        }
+       sched := scheduler.New(disp.logger, disp.queue, disp.pool, staleLockTimeout, pollInterval)
+       sched.Start()
+       defer sched.Stop()
+
+       <-disp.stop
 }
 
 // Management API: all active and queued containers.
 func (disp *dispatcher) apiContainers(w http.ResponseWriter, r *http.Request) {
-       if r.Method != "GET" {
-               httpserver.Error(w, "method not allowed", http.StatusMethodNotAllowed)
-               return
-       }
        var resp struct {
-               Items []container.QueueEnt
+               Items []container.QueueEnt `json:"items"`
        }
        qEntries, _ := disp.queue.Entries()
        for _, ent := range qEntries {
@@ -187,13 +187,34 @@ func (disp *dispatcher) apiContainers(w http.ResponseWriter, r *http.Request) {
 
 // Management API: all active instances (cloud VMs).
 func (disp *dispatcher) apiInstances(w http.ResponseWriter, r *http.Request) {
-       if r.Method != "GET" {
-               httpserver.Error(w, "method not allowed", http.StatusMethodNotAllowed)
-               return
-       }
        var resp struct {
-               Items []worker.View
+               Items []worker.InstanceView `json:"items"`
        }
-       resp.Items = disp.pool.View()
+       resp.Items = disp.pool.Instances()
        json.NewEncoder(w).Encode(resp)
 }
+
+// Management API: set idle behavior to "hold" for specified instance.
+func (disp *dispatcher) apiInstanceHold(w http.ResponseWriter, r *http.Request) {
+       disp.apiInstanceIdleBehavior(w, r, worker.IdleBehaviorHold)
+}
+
+// Management API: set idle behavior to "drain" for specified instance.
+func (disp *dispatcher) apiInstanceDrain(w http.ResponseWriter, r *http.Request) {
+       disp.apiInstanceIdleBehavior(w, r, worker.IdleBehaviorDrain)
+}
+
+// Management API: set idle behavior to "run" for specified instance.
+func (disp *dispatcher) apiInstanceRun(w http.ResponseWriter, r *http.Request) {
+       disp.apiInstanceIdleBehavior(w, r, worker.IdleBehaviorRun)
+}
+
+func (disp *dispatcher) apiInstanceIdleBehavior(w http.ResponseWriter, r *http.Request, want worker.IdleBehavior) {
+       params, _ := r.Context().Value(httprouter.ParamsKey).(httprouter.Params)
+       id := cloud.InstanceID(params.ByName("instance_id"))
+       err := disp.pool.SetIdleBehavior(id, want)
+       if err != nil {
+               httpserver.Error(w, err.Error(), http.StatusNotFound)
+               return
+       }
+}