bon j'ai pas été clair :)
Un CD est commposé de plusieurs couches, la couche modifiée par le faisceau graveur est à l'interieur. Lors de la lecture, les imperfections sont interprétées par le lecteur comme informations binaires qui seront assemblées et présentées de façon qu'on obtienne une information lisible par un humain.
Un CDRW possède une couche "remodelable" : gravure, puis effacement (remise à 0 de la couche contenant les information), puis gravure,...
Est-ce que le faible temps passé pour modifier la couche support à une incidence sur la qualité d'un CD ? Je répondrais que oui mais c'est imperceptible car l'électronique, plus sensible qu'avant, corrige ce problème. Donc, sur des CD un peu abimés ou de mauvaise qualités, l'électronique ne peut pas tout rattraper (un élement de réponse pour ton choix de vitesse). Les CDR(W) sont certifiés jusqu'à certaines vitesses, les raisons doivent être celles que j'explique plus haut.
Les pistes ne sont pas plus profondes mais mieux dessinées. Au lieu d'avoir un "trou" difforme plus petit que le faisceau du laser, donc pas vu par celui ci, on se retrouve avec un beau "trou" compréhensibles par tout les lasers (tout les lecteurs). Ces "trous" sont les supports physiques de l'information numériques. Je me repète, la vitesse (et la qualité du CDR(W)) à peut-être une incidence sur la qualité des "trous".
Les CD protegés physiquement sont des CD qui comportent des imperfections volontaires, il faut que le graveur prennent sont temps pour comprendre et reproduire ces imperfections sur le support cible. Certaines ne peuvent pas être copiés car le fabriquant du CD peut faire ce qu'il veut sur sa matrice. Il peut jouer avec les caractéristiques physiques des lasers, et faire des "trous" bizzaroïdes ou structurer les données de façon anormale, limitant ainsi la possibilité de lecture et de recopie. Je vais passer pour un pirate, encore :)
Ca fait longtemps que je ne me suis pas interessé à la technologie CD, j'ai peut-être oublié des infos ou alors inventé d'autres :P mais mes idées me semblent cohérentes, en tout cas je me comprend :). Peut-être que d'autres qui se sont intéressé à ce sujet auront des choses à corriger ou à ajouter, je suis à la limite là dessus :|
Bon, je sens que je vais mourir bête
Après avoir lu tout ça, sûrement pas :)
-----
"Leechget et récupération de fichiers par partie", que je couperai et deplacerai vers le nouveau fil :)
-----
Le fait de télécharger plusieurs parties d'un fichier en même temps permet d'obtenir un taux de transfert proche du maximum possible par notre connection Internet (si je dis bande passante ChaGab va m'engueuler ! :D) car on lance plusieurs téléchargements qui vont combler les baisses de débits des autres.
Il y a un hic : en téléchargant un fichier en trois parties simultanement (c'est peut-être pas trop français mais il est tard), on occupe trois connections sur le serveurs. Si on lance deux fichiers, on occupe 6 connections (pour les autres calculs, je crois que ça sera bon :)). En occupant toutes ces connections, on lèse d'autres personnes ou alors on surcharge inutilement le serveur. Il faut donc être raisonnable.
Je télécharge avec wget, en console et en une seul partie car je ne fais rien à moitié (et aussi parce que l'on fait ce que l'on veut avec) :)
bonne nuit.. euh journée :)