Nous sommes le Mar 11 Août, 2020 05:25
Supprimer les cookies

Page 1 sur 21, 2 SuivantAspiration de sites et liberté

Le Libre soulève de nombreuses questions, notamment sur la vente liée, les verrous numériques, les libertés numériques.., Parlons-en avec écoute et respect de l'autre.

Ven 10 Juin, 2005 19:41

Bonsoir,

Suite à une remarque d'HP dans la discussion [Recherche] Aspirateur de sites évolués [eq : HTTrack] je souhaite avoir votre avis sur le sujet de l'aspiration de sites, du libre et de la liberté des internautes à consulter une archive de sites quand bon leur semble.

À la question pourquoi aspires tu des sites ? j'ai répondu :

goa103 a écrit:Afin d'archiver un site à un instant donné et reconsulter l'archive obtenue plus tard. Pour quelle autre raison sinon ? Qu'en est-il pour vous ?


À la réponse J'en ai horreur et mes sites sont protégés contre ce genre "de comportements intrusifs" j'ai répondu :

goa103 a écrit:La protection ne fait que forcer la main aux utilisateurs, je ne vois pas en quoi une archive à usage personnel peut déranger. Il s'agit en rien de comportements intrusifs mais simplement d'une méthode pour faciliter la consultation des sites. Le contenu est amené à changer et une connection n'est pas toujours permanente.

Je pense qu'il ne faut pas être parano et garder l'esprit ouvert. Ne surtout pas prendre les internautes pour des gangsters modernes ayant l'intension de nuire.

Pour moi l'internet doit rester libre, aussi libre que l'est Framasoft, qui est sous licence Creative Commons je vous le rappelle.


Pensez-vous que la protection d'un site contre l'aspiration présente un quelconque intérêt ? En terme de sécurité je pense qu'un nuisible aura plutôt tendance à s'intéresser justement aux sites protégés plutôt que de s'attarder sur un site comme celui-ci, sous licence Creative Commons.

Même si le bon sens est parmis nous, quels arguments pour faire changer notre ami HP d'avis ? On pourrait par exemple lui expliquer qu'il n'existe pas réellement de différence entre la consultation en ligne de son site et la consultation d'une archive hors ligne. La seule différence réside dans une notion de temporalité, on consulte en ligne à un instant donné, pour consulter hors ligne il faut avoir archivé, en deux temps, deux instants.

JM.
goa103

Messages : 132
Géo : Lyon

Ven 10 Juin, 2005 20:45

Pensez-vous que la protection d'un site contre l'aspiration présente un quelconque intérêt ?

Bonjour,

le seul "interet" de la pseudo-protection d'un site est d'éviter la surcharge du serveur en terme de charge, de hits, de bande passante, ou de transfert, certains de ces parametres etant limité (logiquement) par un hebergeur.
Tu peux protéger ton contenu à l'aide de mot de passe ou autres astuces, mais alors on parle de zone privée, et aspirateur ou non, ça ne change rien : soit ton visiteur à acces et il peu aspirer, soit il n'as pas acces, et il ne peut pas.

Je comprends parfaitement les gens qui veulent aspirer des sites, notamment ceux qui sont en modem 56K (et il y en a).

La seule chose que je préconiserais, c'est de régler l'aspirateur pour :
1- qu'il n'aspire que les zones utiles du site (on evitera les forums, notamment)
2- qu'il effectue une aspiration... lente (pas plus de 2 requetes par secondes)

Evidemment, pour ceux qui sont en haut débit, je suis d'accord avec goa103 : aspirer n'apporte pas grand chose, et peut nuire au site aspiré (jusqu'à le rendre indisponible).

Apres, en ce qui concerne le contenu récupéré, il faut assumer : ce qui est publié, même une journée, puis rétiré, est suceptible de rester des années à tourner sur le web.
*Nouveau venu ? Lisez les règles d'utilisation de ce forum
*Une question à poser ? Assurez vous qu'on vous répondra
*Soutenir Framasoft ? Participez à l'annuaire !
*"T'es où ?" Inscrivez vous sur la FramaMap
pyg

Avatar de l’utilisateur
Messages : 7858
Géo : Lyonnais

Ven 10 Juin, 2005 21:18

pyg a écrit:La seule chose que je préconiserais, c'est de régler l'aspirateur pour :
1- qu'il n'aspire que les zones utiles du site (on evitera les forums, notamment)
2- qu'il effectue une aspiration... lente (pas plus de 2 requetes par secondes)

Evidemment, pour ceux qui sont en haut débit, je suis d'accord avec goa103 : aspirer n'apporte pas grand chose, et peut nuire au site aspiré (jusqu'à le rendre indisponible).


tout à fait ...
ensuite il faudrait aussi aspirer intelligemment, et çà faut quand même pas trop en demander ...
[exemple réel]
plus de 800 requêtes en quelques minutes sur un blog qui comprend une 20taine de billets,
et heureusement qu'il n'yavait que 20 billets ...
je ne sais pas si le forum sur le même domaine à lui aussi été aspiré (pas encore de sats installées sur celui-ci) et je ne préfère même pas le savoir
j'appelle çà de l'acharnement, ce qui explique la protection que j'instaure dorénavant sur n'importe quel site.

Il est sympa de parler de liberté !
pensons tout de même au webmaster qui paie de son temps, de sa personne et en monnaie sonnante et trébuchante ...

donc : la liberté d'aspirer ---> on peut aspirer à la liberté.
HP

Messages : 140

Ven 10 Juin, 2005 21:33

goa103 a écrit:Même si le bon sens est parmis nous, quels arguments pour faire changer notre ami HP d'avis ?

loué soit le bon sens !
:D

bon courage pour que je change d'avis ...
HP

Messages : 140

Jeu 04 Août, 2005 06:22

Ne change pas d'avis: propose un how-to détaillé sur la protection des sites.
Ca a l'air anodin, tant qu'il s'agit de consulter un site en local. Le site Lea-Linux met même à disposition un Pdf complet de son site, pour faciliter la consultation en local.
Par contre, où le gangsterisme se situe, est le comportement de certains webmasters faisant du boulot à petit prix, ou même pour quasi rien, et qui ne s'embêtent pas. Ils apirent un site, et en font un autre dedans, après l'avoir vidé. J'ai appris ça tout à fait par hasard il n'y a pas longtemps, complètement horrifiée en pensant à ceux qui planchent longuement sur les codes, apprendre, faire, parser etc... pour faire des beaux sites conformes et tout ça...
Bonne journée, Athanor1.
LinuxVillage - http://linuxvillage.org
Site d'entraide d'utilisateurs GNU/Linux
Mélodie

Messages : 4555
Géo : France

Ven 05 Août, 2005 15:39

je ne risque pas de changer d'avis quand je vois que le script dont je parle dans ce post est très utile
et ne nuis en aucune manière aux visiteurs "légitimes" ainsi qu'aux robots respectant le robots.txt :wink:
HP

Messages : 140

Ven 05 Août, 2005 15:51

HP a écrit:quand je vois que le script dont je parle dans ce post est très utile

Mais incomplet selon ce que j'y lis ?
LinuxVillage - http://linuxvillage.org
Site d'entraide d'utilisateurs GNU/Linux
Mélodie

Messages : 4555
Géo : France

Ven 05 Août, 2005 17:08

Athanor1 a écrit:
HP a écrit:quand je vois que le script dont je parle dans ce post est très utile

Mais incomplet selon ce que j'y lis ?

non, non !
notre ami est alarmiste :wink:

de plus le logiciel dont il parle est un shareware .. :wink:
HP

Messages : 140

Ven 05 Août, 2005 18:38

HP a écrit:
Athanor1 a écrit:
HP a écrit:quand je vois que le script dont je parle dans ce post est très utile

Mais incomplet selon ce que j'y lis ?

non, non !
notre ami est alarmiste :wink:

que d'excès de confiance. ;)
HP a écrit:de plus le logiciel dont il parle est un shareware .. :wink:

il se trouve que j'en parle car il est cité par le script censé le bloquer.
Pour info, Offline Explorer Pro laisse 30 jours pour l'utiliser librement. Je n'ai pas essayé, mais à raison de x pages par minutes, ça doit laisser un peu de marge pour aspirer un site. ;)

Blague à part, je réitère : penser pouvoir empêcher "arrêter les aspirateurs" comme c'est indiqué est illusoire.

Les parades que je vois au script que tu cites :

1- rester en deçà de la limite de pages par minutes
(par défaut, le script que tu indiques la fixe à 25/mn)

et/ou

2- utiliser une rotation de proxy pour les requêtes
(déjoue également ton idée de page piège).

Si tu penses que les sharewares ne sont pas utilisés par les aspirateurs de site (contrairement manifestement à l'auteur du script), voici une solution gratuite : prendre n'importe quel logiciel (gratuit) aspirateur de site et le coupler à un proxy local (gratuit) qui pratique la rotation de proxies.

Un petite liste indicative :
leto_2

Messages : 2305

Ven 05 Août, 2005 18:47

leto_2 a écrit:
HP a écrit:
Athanor1 a écrit:
HP a écrit:quand je vois que le script dont je parle dans ce post est très utile

Mais incomplet selon ce que j'y lis ?

non, non !
notre ami est alarmiste :wink:

que d'excès de confiance. ;)

mais la majorité des surfers ne semblent pas avoir autant de savoir que toi ...
:wink:
HP

Messages : 140

Qui est en ligne ?

Utilisateur(s) parcourant actuellement ce forum : Aucun utilisateur inscrit