]> scripts.mit.edu Git - autoinstalls/mediawiki.git/blobdiff - maintenance/dumpBackup.php
MediaWiki 1.17.0
[autoinstalls/mediawiki.git] / maintenance / dumpBackup.php
index 3f4530edbd10b023ed9f2e4a3e3d1d08054fa91e..90e8f72fff65ed0d366120b3963e30ebdd696f13 100644 (file)
@@ -1,6 +1,9 @@
 <?php
 /**
- * Copyright (C) 2005 Brion Vibber <brion@pobox.com>
+ * Script that dumps wiki pages or logging database into an XML interchange
+ * wrapper format for export or backup
+ *
+ * Copyright © 2005 Brion Vibber <brion@pobox.com>
  * http://www.mediawiki.org/
  *
  * This program is free software; you can redistribute it and/or modify
@@ -26,12 +29,12 @@ $originalDir = getcwd();
 
 $optionsWithArgs = array( 'pagelist', 'start', 'end' );
 
-require_once( dirname(__FILE__) . '/commandLine.inc' );
+require_once( dirname( __FILE__ ) . '/commandLine.inc' );
 require_once( 'backup.inc' );
 
 $dumper = new BackupDumper( $argv );
 
-if( isset( $options['quiet'] ) ) {
+if ( isset( $options['quiet'] ) ) {
        $dumper->reporting = false;
 }
 
@@ -47,10 +50,10 @@ if ( isset( $options['pagelist'] ) ) {
        $dumper->pages = array_filter( $pages, create_function( '$x', 'return $x !== "";' ) );
 }
 
-if( isset( $options['start'] ) ) {
+if ( isset( $options['start'] ) ) {
        $dumper->startId = intval( $options['start'] );
 }
-if( isset( $options['end'] ) ) {
+if ( isset( $options['end'] ) ) {
        $dumper->endId = intval( $options['end'] );
 }
 $dumper->skipHeader = isset( $options['skip-header'] );
@@ -59,13 +62,13 @@ $dumper->dumpUploads = isset( $options['uploads'] );
 
 $textMode = isset( $options['stub'] ) ? WikiExporter::STUB : WikiExporter::TEXT;
 
-if( isset( $options['full'] ) ) {
+if ( isset( $options['full'] ) ) {
        $dumper->dump( WikiExporter::FULL, $textMode );
-} elseif( isset( $options['current'] ) ) {
+} elseif ( isset( $options['current'] ) ) {
        $dumper->dump( WikiExporter::CURRENT, $textMode );
-} elseif( isset( $options['stable'] ) ) {
+} elseif ( isset( $options['stable'] ) ) {
        $dumper->dump( WikiExporter::STABLE, $textMode );
-} elseif( isset( $options['logs'] ) ) {
+} elseif ( isset( $options['logs'] ) ) {
        $dumper->dump( WikiExporter::LOGS );
 } else {
        $dumper->progress( <<<ENDS
@@ -79,11 +82,14 @@ Actions:
   --full      Dump all revisions of every page.
   --current   Dump only the latest revision of every page.
   --logs      Dump all log events.
+  --stable    Stable versions of pages?
+  --pagelist=<file>
+                         Where <file> is a list of page titles to be dumped
 
 Options:
   --quiet     Don't dump status reports to stderr.
   --report=n  Report position and speed after every n pages processed.
-              (Default: 100)
+                         (Default: 100)
   --server=h  Force reading from MySQL server h
   --start=n   Start from page_id or log_id n
   --end=n     Stop before page_id or log_id n (exclusive)
@@ -91,11 +97,14 @@ Options:
   --skip-footer Don't output the </mediawiki> footer
   --stub      Don't perform old_text lookups; for 2-pass dump
   --uploads   Include upload records (experimental)
+  --conf=<file> Use the specified configuration file (LocalSettings.php)
+
+  --wiki=<wiki>  Only back up the specified <wiki>
 
 Fancy stuff: (Works? Add examples please.)
   --plugin=<class>[:<file>]   Load a dump plugin class
   --output=<type>:<file>      Begin a filtered output stream;
-                              <type>s: file, gzip, bzip2, 7zip
+                                                         <type>s: file, gzip, bzip2, 7zip
   --filter=<type>[:<options>] Add a filter on an output branch
 
 ENDS