Nous sommes le Mar 17 Juin, 2025 23:45
Supprimer les cookies

Page 1 sur 31, 2, 3 Suivant[Recherche] Aspirateur de sites évolués [eq : HTTrack]

Pour une tâche précise, pour remplacer un logiciel propriétaire donné...

Mar 07 Juin, 2005 18:04

Bonjour,

Actuellement pour aspirer un site j'utilise HTTrack. Cependant je souhaiterai conserver une archive du site original, URLs compris. Par exemple pour un site dynamique développé en PHP les URLs sont constitués d'une racine, du nom du script et de paramètres. C'est le cas du site Lemonade Productions par exemple. Si j'archive http://www.lemonade-p.com/gameinfo.php?index=1 avec HTTrack je me retrouve avec une page www.lemonade-p.com/gameinfo2ab3.html. Une page HTML à nom unique est générée à partir du nom du script et des paramètres.

Connaissez-vous un logiciel qui archiverait une telle page d'une autre façon ? De manière à conserver les informations de l'URL d'origine et de permettre la consultation de l'archive comme si il s'agissait de l'original.

Merci par avance pour votre aide,
JM.
goa103

Messages : 132
Géo : Lyon

Mer 08 Juin, 2005 20:43

wget fait ça très bien, c'est en ligne de commande et il faut lire un peu la doc pour s'en servir correctement, mais il fait un boulot formidable.
wismerhill

Messages : 274

Jeu 09 Juin, 2005 00:12

Bonsoir,

Pour informations :

La notice de wget sur Framasoft.

Amicalement,
Pseudogaëtan.
Pseudogaetan

Messages : 2586
Géo : Rennes (France,35)

Jeu 09 Juin, 2005 08:15

Pseudogaetan a écrit:Pour informations :

La notice de wget sur Framasoft.


Ahhh merci j'ai même trouvé une interface graphique pour cet outil, wGetGUI. Même si j'utilise HTTrack qui lui-même utilise wget, je pense qu'un petit coup d'œil à cet outil me sera utile. Par contre je reste dubitatif concernant la navigation d'un site archivé tel quel. Recherche à creuser donc.

Merci à vous deux pour vos réponses.
goa103

Messages : 132
Géo : Lyon

Ven 10 Juin, 2005 05:27

goa103 a écrit:Par contre je reste dubitatif concernant la navigation d'un site archivé tel quel. Recherche à creuser donc.


Tu ne peux pas... php est un langage qui génère des pages HTML "fictives" (de vrai nom: dynamiques) en fonctions de certains paramètres (y compris ceux qui sont dans l'url).
Avec un aspirateur de site, tu ne pourras jamais avoir les sources du langage mais uniquement les pages générées.
Pour avoir accés aux scripts eux mêmes il faudrait pouvoir accéder aux pages non traduites par le serveur http et donc par php, ce qui, pour tout site correctement configuré, est impossible.
Tu as aussi la solution du FTP, mais bien entendu il te faudra le mot de passe pour y accéder.. A moins que tu ne sois vraiment pote avec le webmaster, il m'étonnerais fort que tu ais ce mot de passe :)
Philippe

Messages : 353

Ven 10 Juin, 2005 05:35

goa103 a écrit:Actuellement pour aspirer un site j'utilise HTTrack. Cependant je souhaiterai conserver une archive du site original, URLs compris.

par simple curiosité : pourquoi aspires tu des sites ?
HP

Messages : 140

Ven 10 Juin, 2005 13:21

Philippe a écrit:Avec un aspirateur de site, tu ne pourras jamais avoir les sources du langage mais uniquement les pages générées.


Ça n'est pas du tout ce que je cherche à faire mais merci des précisions. C'est vrai qu'on retrouve souvent des personnes qui se demandent si l'aspiration d'un site permet de voler leurs sources. Définitivement non car comme tu l'as dit, une fois sortie du serveur, les pages ne sont plus qu'un amas de balises HTML.
goa103

Messages : 132
Géo : Lyon

Ven 10 Juin, 2005 13:22

HP a écrit:par simple curiosité : pourquoi aspires tu des sites ?


Afin d'archiver un site à un instant donné et reconsulter l'archive obtenue plus tard. Pour quelle autre raison sinon ? Qu'en est-il pour vous ?
goa103

Messages : 132
Géo : Lyon

Ven 10 Juin, 2005 18:55

goa103 a écrit:
HP a écrit:par simple curiosité : pourquoi aspires tu des sites ?


Afin d'archiver un site à un instant donné et reconsulter l'archive obtenue plus tard. Pour quelle autre raison sinon ? Qu'en est-il pour vous ?

J'en ai horreur
et mes sites sont protégés contre ce genre "de comportements intrusifs"
[.htaccess]
HP

Messages : 140

Ven 10 Juin, 2005 19:25

HP a écrit:
et mes sites sont protégés contre ce genre "de comportements intrusifs"
[.htaccess]

.htaccess n'a jamais été utilisé pour protéger un html, mais pour limiter l'accés à une partie de ton arborescence.
Si tu en autorises l'accés à une personne, il pourra aspirer ton site comme il le désire, et ton .htaccess n'aura rien à redire.

Le HTML , le javascript, ne sont PAS protégeable, si un trouduc désire te le voler tu ne peux pas l'empêcher, et même tes .htaccess .htpasswd si il est autorisé, ne l'empècheront pas.
Seuls les scripts coté serveurs sont protégés (si ils ont un minimum de protection): php, asp ....
Philippe

Messages : 353

Qui est en ligne ?

Utilisateur(s) parcourant actuellement ce forum : Aucun utilisateur inscrit