18995: Merge branch 'main' into 18995-code-cleanup-2
[arvados.git] / doc / api / execution.html.textile.liquid
index cada9ab1b88ac226231633a8a3b43f56cf735a5b..1d41acb017d15db665a25dbb5ebd68864efe240b 100644 (file)
@@ -15,7 +15,7 @@ h2. Container API
 
 # To submit work, create a "container request":{{site.baseurl}}/api/methods/container_requests.html in the @Committed@ state.
 # The system will fufill the container request by creating or reusing a "Container object":{{site.baseurl}}/api/methods/containers.html and assigning it to the @container_uuid@ field.  If the same request has been submitted in the past, it may reuse an existing container.  The reuse behavior can be suppressed with @use_existing: false@ in the container request.
-# The dispatcher process will notice a new container in @Queued@ state and submit a container executor to the underlying work queuing system (such as SLURM).
+# The dispatcher process will notice a new container in @Queued@ state and submit a container executor to the underlying work queuing system (such as Slurm).
 # The container executes.  Upon termination the container goes into the  @Complete@ state.  If the container execution was interrupted or lost due to system failure, it will go into the @Cancelled@ state.
 # When the container associated with the container request is completed, the container request will go into the @Final@ state.
 # The @output_uuid@ field of the container request contains the uuid of output collection produced by container request.
@@ -49,10 +49,3 @@ For example, for a 3.75 GiB node, default Keep cache, and no extra RAM reserved:
     (3840 * 0.95) - 256 = 3392 MiB
 
 To run on this instance type, the container can request at most 3392 MiB of working RAM.
-
-h2. Job API (deprecated)
-
-# To submit work, create a "job":{{site.baseurl}}/api/methods/jobs.html .  If the same job has been submitted in the past, it will return an existing job in @Completed@ state.
-# The dispatcher process will notice a new job in @Queued@ state and attempt to allocate nodes to run the job.
-# The job executes.
-# Retrieve the @output@ field with the portable data hash of the collection with the output files of the job.