]> scripts.mit.edu Git - wizard.git/blobdiff - wizard/command/mass_migrate.py
Move a number of common parameters to the baton.
[wizard.git] / wizard / command / mass_migrate.py
index a304ff5de6d8d6c73fb31d74c671d75dbc14b937..b72bfd4d1f3afe9dfcc38bc44cc048d940bb19c0 100644 (file)
@@ -6,36 +6,36 @@ import pwd
 import hashlib
 import errno
 import time
+import itertools
 
 import wizard
 from wizard import deploy, util, shell, sset, command
-from wizard.command import migrate
 
 def main(argv, baton):
     options, args = parse_args(argv, baton)
     app = args[0]
     base_args = calculate_base_args(options)
-    sh = make_shell(options)
-    seen = make_serialized_set(options)
+    sh = shell.ParallelShell.make(options.no_parallelize, options.max_processes)
+    seen = sset.make(options.seen)
     is_root = not os.getuid()
-    warnings_log, errors_log = open_aggregate_logs(options)
+    warnings_log, errors_log = command.open_logs(options.log_dir)
     # loop stuff
     errors = {}
     i = 0
     # [] needed to workaround subtle behavior of frozenset("")
-    for d in deploy.parse_install_lines([app], options.versions_path):
+    deploys = deploy.parse_install_lines([app], options.versions_path)
+    requested_deploys = itertools.islice(deploys, options.limit)
+    for i, d in enumerate(requested_deploys, 1):
         # check if we want to punt due to --limit
-        i += 1
-        if options.limit and i > options.limit:
-            break
         if d.location in seen:
             continue
-        if is_root and not security_check_homedir(d):
+        if is_root and not command.security_check_homedir(d):
             continue
+        logging.info("Processing %s" % d.location)
         child_args = list(base_args)
         # calculate the log file, if a log dir was specified
         if options.log_dir:
-            log_file = os.path.join(options.log_dir, calculate_log_name(i, d.location))
+            log_file = command.calculate_log_name(options.log_dir, i, d.location)
             child_args.append("--log-file=" + log_file)
         # actual meat
         def make_on_pair(d, i):
@@ -82,19 +82,13 @@ user for testing purposes, but then you MUST NOT run this on
 untrusted repositories."""
     parser = command.WizardOptionParser(usage)
     baton.push(parser, "log_dir")
-    parser.add_option("--seen", dest="seen",
-            default=None, help="File to read/write paths of already processed installs."
-            "These will be skipped.")
-    parser.add_option("--no-parallelize", dest="no_parallelize", action="store_true",
-            default=False, help="Turn off parallelization")
-    parser.add_option("--dry-run", dest="dry_run", action="store_true",
-            default=False, help="Print commands that would be run. Implies --no-parallelize")
-    parser.add_option("--max", dest="max",
-            default=10, help="Maximum subprocesses to run concurrently")
+    baton.push(parser, "seen")
+    baton.push(parser, "no_parallelize")
+    baton.push(parser, "dry_run")
+    baton.push(parser, "max_processes")
     parser.add_option("--force", dest="force", action="store_true",
             default=False, help="Force migrations to occur even if .scripts or .git exists.")
-    parser.add_option("--limit", dest="limit", type="int",
-            default=0, help="Limit the number of autoinstalls to look at.")
+    baton.push(parser ,"limit")
     baton.push(parser, "versions_path")
     baton.push(parser, "srv_path")
     options, args, = parser.parse_all(argv)
@@ -106,56 +100,7 @@ untrusted repositories."""
         options.no_parallelize = True
     return options, args
 
-def open_aggregate_logs(options):
-    warnings_logname = "/tmp/wizard-migrate-warnings.log"
-    errors_logname = "/tmp/wizard-migrate-errors.log"
-    if options.log_dir:
-        # must not be on AFS, since subprocesses won't be
-        # able to write to the logfiles do the to the AFS patch.
-        try:
-            os.mkdir(options.log_dir)
-        except OSError as e:
-            if e.errno != errno.EEXIST:
-                raise
-            if options.force:
-                options.log_dir = os.path.join(options.log_dir, str(int(time.time())))
-                os.mkdir(options.log_dir) # if fails, be fatal
-        os.chmod(options.log_dir, 0o777)
-        warnings_logname = os.path.join(options.log_dir, "warnings.log")
-        errors_logname = os.path.join(options.log_dir, "errors.log")
-    warnings_log = open(warnings_logname, "a")
-    errors_log = open(errors_logname, "a")
-    return warnings_log, errors_log
-
-def security_check_homedir(d):
-    uid = util.get_dir_uid(d.location)
-    real = os.path.realpath(d.location)
-    try:
-        if not real.startswith(pwd.getpwuid(uid).pw_dir + "/"):
-            logging.error("Security check failed, owner of deployment and"
-                    "owner of home directory mismatch for %s" % d.location)
-            return False
-    except KeyError:
-        logging.error("Security check failed, could not look up"
-                "owner of %s (uid %d)" % (d.location, uid))
-        return False
-    return True
-
 def calculate_base_args(options):
     return command.makeBaseArgs(options, dry_run="--dry-run", srv_path="--srv-path",
             force="--force")
 
-def calculate_log_name(i, dir):
-    return "%04d" % i + dir.replace('/', '-') + ".log"
-
-def make_shell(options):
-    if options.no_parallelize:
-        return shell.DummyParallelShell()
-    else:
-        return shell.ParallelShell(max=int(options.max))
-
-def make_serialized_set(options):
-    if options.seen:
-        return sset.SerializedSet(options.seen)
-    else:
-        return sset.DummySerializedSet()