add util functions, fix up tmp dirs
[arvados.git] / services / crunch / crunch-job
index 76ce4e4da0e8becc05387fbfc99b070463b2db98..6c0031c6171bb8135bd06a3c110af3c1ae5667ad 100755 (executable)
@@ -76,8 +76,13 @@ use IPC::System::Simple qw(capturex);
 
 $ENV{"TMPDIR"} ||= "/tmp";
 $ENV{"CRUNCH_TMP"} = $ENV{"TMPDIR"} . "/crunch-job";
-$ENV{"CRUNCH_WORK"} = $ENV{"CRUNCH_TMP"} . "/work";
-mkdir ($ENV{"CRUNCH_TMP"});
+if ($ENV{"USER"} ne "crunch" && $< != 0) {
+  # use a tmp dir unique for my uid
+  $ENV{"CRUNCH_TMP"} .= "-$<";
+}
+$ENV{"JOB_WORK"} = $ENV{"CRUNCH_TMP"} . "/work";
+$ENV{"CRUNCH_TMP"} = $ENV{"JOB_WORK"}; # deprecated
+mkdir ($ENV{"JOB_WORK"});
 
 my $force_unlock;
 my $git_dir;
@@ -97,6 +102,7 @@ if (defined $job_api_token) {
 
 my $have_slurm = exists $ENV{SLURM_JOBID} && exists $ENV{SLURM_NODELIST};
 my $job_has_uuid = $jobspec =~ /^[-a-z\d]+$/;
+my $local_job = !$job_has_uuid;
 
 
 $SIG{'HUP'} = sub
@@ -115,11 +121,12 @@ $SIG{'USR2'} = sub
 
 
 my $arv = Arvados->new;
-my $metastream = Warehouse::Stream->new;
+my $metastream = Warehouse::Stream->new(whc => new Warehouse);
 $metastream->clear;
 $metastream->write_start('log.txt');
 
-my $User = {};
+my $User = $arv->{'users'}->{'current'}->execute;
+
 my $Job = {};
 my $job_id;
 my $dbh;
@@ -127,10 +134,9 @@ my $sth;
 if ($job_has_uuid)
 {
   $Job = $arv->{'jobs'}->{'get'}->execute('uuid' => $jobspec);
-  $User = $arv->{'users'}->{'current'}->execute;
   if (!$force_unlock) {
-    if ($Job->{'is_locked_by'}) {
-      croak("Job is locked: " . $Job->{'is_locked_by'});
+    if ($Job->{'is_locked_by_uuid'}) {
+      croak("Job is locked: " . $Job->{'is_locked_by_uuid'});
     }
     if ($Job->{'success'} ne undef) {
       croak("Job 'success' flag (" . $Job->{'success'} . ") is not null");
@@ -153,9 +159,12 @@ else
     qw(script script_version script_parameters);
   }
 
-  if (!defined $Job->{'uuid'}) {
-    chomp ($Job->{'uuid'} = sprintf ("%s-t%d-p%d", `hostname -s`, time, $$));
-  }
+  $Job->{'is_locked_by_uuid'} = $User->{'uuid'};
+  $Job->{'started_at'} = gmtime;
+
+  $Job = $arv->{'jobs'}->{'create'}->execute('job' => $Job);
+
+  $job_has_uuid = 1;
 }
 $job_id = $Job->{'uuid'};
 
@@ -247,7 +256,7 @@ if ($job_has_uuid)
 {
   # Claim this job, and make sure nobody else does
 
-  $Job->{'is_locked_by'} = $User->{'uuid'};
+  $Job->{'is_locked_by_uuid'} = $User->{'uuid'};
   $Job->{'started_at'} = gmtime;
   $Job->{'running'} = 1;
   $Job->{'success'} = undef;
@@ -255,8 +264,10 @@ if ($job_has_uuid)
                               'todo' => 1,
                               'running' => 0,
                               'done' => 0 };
-  unless ($Job->save() && $Job->{'is_locked_by'} == $User->{'uuid'}) {
-    croak("Error while updating / locking job");
+  if ($job_has_uuid) {
+    unless ($Job->save() && $Job->{'is_locked_by_uuid'} == $User->{'uuid'}) {
+      croak("Error while updating / locking job");
+    }
   }
 }
 
@@ -310,22 +321,22 @@ else
 
 
 my $build_script;
-do {
-  local $/ = undef;
-  $build_script = <DATA>;
-};
 
 
-$ENV{"CRUNCH_SRC_COMMIT"} = $Job->{revision};
+$ENV{"CRUNCH_SRC_COMMIT"} = $Job->{script_version};
 
-my $skip_install = (!$have_slurm && $Job->{revision} =~ m{^/});
+my $skip_install = ($local_job && $Job->{script_version} =~ m{^/});
 if ($skip_install)
 {
-  $ENV{"CRUNCH_SRC"} = $Job->{revision};
+  $ENV{"CRUNCH_SRC"} = $Job->{script_version};
 }
 else
 {
-  Log (undef, "Install revision ".$Job->{revision});
+  do {
+    local $/ = undef;
+    $build_script = <DATA>;
+  };
+  Log (undef, "Install revision ".$Job->{script_version});
   my $nodelist = join(",", @node);
 
   # Clean out crunch_tmp/work and crunch_tmp/opt
@@ -334,7 +345,7 @@ else
   if ($cleanpid == 0)
   {
     srun (["srun", "--nodelist=$nodelist", "-D", $ENV{'TMPDIR'}],
-         ['bash', '-c', 'if mount | grep -q $CRUNCH_WORK/; then sudo /bin/umount $CRUNCH_WORK/* 2>/dev/null; fi; sleep 1; rm -rf $CRUNCH_WORK $CRUNCH_TMP/opt']);
+         ['bash', '-c', 'if mount | grep -q $JOB_WORK/; then sudo /bin/umount $JOB_WORK/* 2>/dev/null; fi; sleep 1; rm -rf $JOB_WORK $CRUNCH_TMP/opt']);
     exit (1);
   }
   while (1)
@@ -357,6 +368,7 @@ else
   $ENV{"CRUNCH_INSTALL"} = "$ENV{CRUNCH_TMP}/opt";
 
   my $commit;
+  my $git_archive;
   my $treeish = $Job->{'script_version'};
   my $repo = $git_dir || $ENV{'CRUNCH_DEFAULT_GIT_DIR'};
   # Todo: let script_version specify repository instead of expecting
@@ -379,7 +391,7 @@ else
     chomp $gitlog;
     if ($gitlog =~ /^[a-f0-9]{40}$/) {
       $commit = $gitlog;
-      Log (undef, "Using commit $commit for revision $treeish");
+      Log (undef, "Using commit $commit for script_version $treeish");
     }
   }
 
@@ -407,7 +419,7 @@ else
        Log (undef, "Using commit $commit for tree-ish $treeish");
         if ($commit ne $treeish) {
           $Job->{'script_version'} = $commit;
-          $Job->save() or croak("Error while updating job");
+          !$job_has_uuid or $Job->save() or croak("Error while updating job");
         }
       }
     }
@@ -417,6 +429,7 @@ else
     $ENV{"CRUNCH_SRC_COMMIT"} = $commit;
     @execargs = ("sh", "-c",
                 "mkdir -p $ENV{CRUNCH_INSTALL} && cd $ENV{CRUNCH_TMP} && perl -");
+    $git_archive = `cd $ENV{CRUNCH_SRC} && git archive $commit`;
   }
   else {
     croak ("could not figure out commit id for $treeish");
@@ -425,7 +438,7 @@ else
   my $installpid = fork();
   if ($installpid == 0)
   {
-    srun (\@srunargs, \@execargs, {}, $build_script);
+    srun (\@srunargs, \@execargs, {}, $build_script . $git_archive);
     exit (1);
   }
   while (1)
@@ -536,7 +549,8 @@ for (my $todo_ptr = 0; $todo_ptr <= $#jobstep_todo; $todo_ptr ++)
     }
     $ENV{"TASK_SLOT_NODE"} = $slot[$childslot]->{node}->{name};
     $ENV{"TASK_SLOT_NUMBER"} = $slot[$childslot]->{cpu};
-    $ENV{"TASK_TMPDIR"} = $ENV{"CRUNCH_WORK"}.$slot[$childslot]->{cpu};
+    $ENV{"TASK_WORK"} = $ENV{"JOB_WORK"}."/".$slot[$childslot]->{cpu};
+    $ENV{"TASK_TMPDIR"} = $ENV{"TASK_WORK"}; # deprecated
     $ENV{"CRUNCH_NODE_SLOTS"} = $slot[$childslot]->{node}->{ncpus};
 
     $ENV{"GZIP"} = "-n";
@@ -550,7 +564,7 @@ for (my $todo_ptr = 0; $todo_ptr <= $#jobstep_todo; $todo_ptr ++)
     my @execargs = qw(sh);
     my $build_script_to_send = "";
     my $command =
-       "mkdir -p $ENV{CRUNCH_TMP}/revision "
+       "mkdir -p $ENV{JOB_WORK} $ENV{CRUNCH_TMP} $ENV{TASK_WORK} "
        ."&& cd $ENV{CRUNCH_TMP} ";
     if ($build_script)
     {
@@ -558,18 +572,6 @@ for (my $todo_ptr = 0; $todo_ptr <= $#jobstep_todo; $todo_ptr ++)
       $command .=
          "&& perl -";
     }
-    elsif (!$skip_install)
-    {
-      $command .=
-         "&& "
-         ."( "
-         ."  [ -e '$ENV{CRUNCH_INSTALL}/.tested' ] "
-         ."|| "
-         ."  ( svn export --quiet '$ENV{INSTALL_REPOS}/installrevision' "
-         ."    && ./installrevision "
-         ."  ) "
-         .") ";
-    }
     $ENV{"PYTHONPATH"} = "$ENV{CRUNCH_SRC}/sdk/python"; # xxx hack
     $command .=
         "&& exec $ENV{CRUNCH_SRC}/crunch_scripts/" . $Job->{"script"};
@@ -710,9 +712,12 @@ goto ONELEVEL if !defined $success;
 
 release_allocation();
 freeze();
+$Job->reload;
 $Job->{'output'} = &collate_output();
+$Job->{'running'} = 0;
 $Job->{'success'} = $Job->{'output'} && $success;
-$Job->save;
+$Job->{'finished_at'} = gmtime;
+$Job->save if $job_has_uuid;
 
 if ($Job->{'output'})
 {
@@ -746,7 +751,7 @@ sub update_progress_stats
   $Job->{'tasks_summary'}->{'todo'} = $todo;
   $Job->{'tasks_summary'}->{'done'} = $done;
   $Job->{'tasks_summary'}->{'running'} = $running;
-  $Job->save;
+  $Job->save if $job_has_uuid;
   Log (undef, "status: $done done, $running running, $todo todo");
   $progress_is_dirty = 0;
 }
@@ -830,7 +835,7 @@ sub reapchildren
   # Load new tasks
   my $newtask_list = $arv->{'job_tasks'}->{'list'}->execute(
     'where' => {
-      'created_by_job_task' => $Jobstep->{'arvados_task'}->{uuid}
+      'created_by_job_task_uuid' => $Jobstep->{'arvados_task'}->{uuid}
     },
     'order' => 'qsequence'
   );
@@ -1020,7 +1025,7 @@ sub collate_output
   {
     Log (undef, "output $joboutput");
     $Job->{'output'} = $joboutput;
-    $Job->save;
+    $Job->save if $job_has_uuid;
   }
   else
   {
@@ -1130,7 +1135,7 @@ sub save_meta
   undef $metastream if !$justcheckpoint; # otherwise Log() will try to use it
   Log (undef, "meta key is $loglocator");
   $Job->{'log'} = $loglocator;
-  $Job->save;
+  $Job->save if $job_has_uuid;
 }
 
 
@@ -1231,7 +1236,7 @@ sub thaw
   {
     $Job->{$_} = $frozenjob->{$_};
   }
-  $Job->save;
+  $Job->save if $job_has_uuid;
 }
 
 
@@ -1308,32 +1313,15 @@ if (readlink ("$destdir.commit") eq $commit) {
     exit 0;
 }
 
+unlink "$destdir.commit";
 open STDOUT, ">", "$destdir.log";
 open STDERR, ">&STDOUT";
 
-if (-d "$destdir/.git") {
-    chdir $destdir or die "chdir $destdir: $!";
-    if (0 != system (qw(git remote set-url origin), $repo)) {
-       # awful... for old versions of git that don't know "remote set-url"
-       shell_or_die (q(perl -pi~ -e '$_="\turl = ).$repo.q(\n" if /url = /' .git/config));
-    }
-}
-elsif ($repo && $commit)
-{
-    shell_or_die('git', 'clone', $repo, $destdir);
-    chdir $destdir or die "chdir $destdir: $!";
-    shell_or_die(qw(git config clean.requireForce false));
-}
-else {
-    die "$destdir does not exist, and no repo/commit specified -- giving up";
-}
-
-if ($commit) {
-    unlink "$destdir.commit";
-    shell_or_die (qw(git stash));
-    shell_or_die (qw(git clean -d -x));
-    shell_or_die (qw(git fetch origin));
-    shell_or_die (qw(git checkout), $commit);
+mkdir $destdir;
+open TARX, "|-", "tar", "-C", $destdir, "-xf", "-";
+print TARX <DATA>;
+if(!close(TARX)) {
+  die "'tar -C $destdir -xf -' exited $?: $!";
 }
 
 my $pwd;
@@ -1365,3 +1353,5 @@ sub shell_or_die
   system (@_) == 0
       or die "@_ failed: $! exit 0x".sprintf("%x",$?);
 }
+
+__DATA__