fr:tips:export_html
Différences
Ci-dessous, les différences entre deux révisions de la page.
Prochaine révision | Révision précédente | ||
fr:tips:export_html [2008-08-09 14:07] – created chi | fr:tips:export_html [2011-01-13 22:00] (Version actuelle) – [offline-dokuwiki.sh] page dplacée => lien mis à jour 41.223.187.190 | ||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
+ | ====== Exportation de pages multiples en HTML ====== | ||
+ | |||
+ | |||
+ | ===== Offline Doku ===== | ||
+ | |||
+ | Pour exporter des pages multiples ou des espaces de noms complets utilisez [[http:// | ||
+ | |||
+ | > | ||
+ | >>Le script de Pavel nécessite PHP>4.3, pour ceux qui ne veulent pas passer à une version supérieure de PHP modifiez la ligne 46 du code de la façon suivante : | ||
+ | |||
+ | changez : | ||
+ | < | ||
+ | $tokens = $parser-> | ||
+ | </ | ||
+ | |||
+ | en : | ||
+ | < | ||
+ | $fp = fopen ($file, " | ||
+ | $buffer = fread ($fp, filesize ($file)); | ||
+ | fclose ($fp) ; | ||
+ | $tokens = $parser-> | ||
+ | |||
+ | |||
+ | ===== Pavuk ===== | ||
+ | |||
+ | Voici un exemple en ligne de commande [[http:// | ||
+ | |||
+ | < | ||
+ | pavuk -dont_leave_site -noRobots -index_name " | ||
+ | </ | ||
+ | |||
+ | Changez simplement l'URL à la fin de la commande. En outre, cette commande manipule les restrictions ACL en utilisant un cookie. Copiez le fichier " | ||
+ | |||
+ | |||
+ | ===== Bash ===== | ||
+ | |||
+ | Un script bash pour exporter toutes les pages en utilisant l' | ||
+ | |||
+ | <code bash> | ||
+ | #!/bin/bash | ||
+ | |||
+ | #Dokuwiki Export 0.1 - by Venator85 (venator85[at]gmail[dot]com) | ||
+ | #Warning: Dokuwiki´s URL rewrite must be turned OFF for this to work, otherwise change line 27 accordingly | ||
+ | |||
+ | #USAGE: | ||
+ | # Save this script in an empty dir and run it from a shell: | ||
+ | # sh whatever.sh | ||
+ | |||
+ | FTP_DOKU_PATH=" | ||
+ | FTPUSER=" | ||
+ | FTPPASS=" | ||
+ | |||
+ | HTTP_DOKU_PATH=" | ||
+ | |||
+ | wget --ftp-user=$FTPUSER --ftp-password=$FTPPASS --recursive --no-host-directories --cut-dirs=2 " | ||
+ | |||
+ | SLASH='/' | ||
+ | COLON=':' | ||
+ | mkdir " | ||
+ | for i in `find pages/ -type f` | ||
+ | do | ||
+ | PAGE=${i#" | ||
+ | PAGE=${PAGE%" | ||
+ | PAGE=${PAGE// | ||
+ | |||
+ | wget -O - " | ||
+ | done | ||
+ | </ | ||
+ | |||
+ | |||
+ | |||
+ | ===== offline-dokuwiki.sh ===== | ||
+ | |||
+ | Et voici un autre script ['' | ||
+ | |||
+ | |||
+ | |||
+ | ===== Credits ===== | ||
+ | |||
+ | //If you create, translate or modify whole or part of this page, add your name and your email here.// | ||
+ | *// | ||