Nous sommes le Dim 22 Juin, 2025 22:26
Supprimer les cookies

Page 13 sur 29Précédent 1 ... 10, 11, 12, 13, 14, 15, 16 ... 29 SuivantPourquoi je suis pour les logiciels libres mais pas prolinux

Le Libre soulève de nombreuses questions, notamment sur la vente liée, les verrous numériques, les libertés numériques.., Parlons-en avec écoute et respect de l'autre.

Mar 01 Mai, 2007 21:10

Justement je compte transformer la spéculation en test dans quelques mois.

Hum, voilà qui m'intéresse. Faut élaborer un protocole.
Par contre, j'ai pas bien compris ta remarque sur le "look & feel" : tu veux dire quoi par là ????

Je l'ai dit : tout GUI par défaut avec souris, organisation via un bureau, menus, boutons, un explorateur graphiquesde fichiers, système généralisé de wizards pour la configuration et la personnalisation (pour les ignares qui ne connaissent pas les RFC) installations automatisées (pas de sources mais que des binaires), tout ça existe depuis au moins windows 3.1 (autour de 1991, année de naissance de Linux mais en fait avant au niveau plus ou moins grand public (Mac, Amstrad et d'autres)), plug & play (installation automatique des pilotes) etc.
Conséquence de ce système : on devient un utilisateur d'informatique et non pas un militant quand on est derrière son PC, je comprends que ça gêne certains.

Absolument, ça donne une idée du niveau moyen des utilisateurs d'informatique. Alors utiliser Linux ... normal que ça ne concerne que 1% des ménages.
Marrant, je précise bien que c'est indépendant de l'OS et tu sors tout de suite un truc en rapport avec Linux. Je ne vois pas le rapport :?:


Moi je le vois : la complexité d'utilisation (je sais, ça reste à démontrer, c'est seulement mon avis, basé sur mon expérience et d'autres éléments, sans plus).

Je te retourne la question : prouve moi qu'il est plus simple d'utiliser un système d'exploitation plutôt qu'un autre.

Je ne peux pas le prouver mais ton histoire de test pourrait donner des éléments, ça dépendra du protocole que tu vas utiliser.




Il faut bien reconnaitre que depuis 2001 (sortie de XP), il n'y a pas grand chose de nouveau du coté Microsoft alors que ça progresse à pas de géant du coté des distributions GNU/Linux.

Je partage pleinement ton avis.
Candide

Messages : 230

Mar 01 Mai, 2007 21:40

L'immense majorité des gens ne sait même pas ce que c'est un processeur.
Ont-ils besoin de le savoir pour faire un rapport sur leur traitement de textes ou surfer ?
Si tu vas par là, ont-il même besoin de savoir de quel système d'exploitation ils disposent ?


Quel pourcentage de gens savent que l'OS de leur portable est symbian ? Et pourtant un portable est un objet important, courant, intime.

Utiliser OOo Writer sous Windows ou sous Linux : les différences sont plus que minimes.
Les icones peut-être ?

Et au fond c'est peut-être pour cela que tant (enfin relativement disons) de gens l'utilisent (idem pour Firefox, etc).

De toute façon quand tu demandes à quelqu'un ce qu'il a comme ordi , la réponse la plus fréquente c'est "Windows".
OS et matériel : pas de différence.

Ben oui, et alors ? c'est un truc général au savoir technologique. Tu crois que les gens savent ce qu'est Internet ? Pour eux, c'est free ou orange, c'est pas TCP/IP. Et ce sera encore pire avec l'arrivée massive des bio-technologies et de la bio-informatique.


D'autres vont te dire que Windows est gratuit (ben oui, il est livré avec l'ordi) ou que Internet ne marche plus sur leur ordi (là il faut comprendre que Internet c'est l'icone bleue en forme de 'e' qui est sur le bureau).
A force de prendre les gens pour des c**s, ils le deviennent.


Non, ce n'est pas cela du tout. C'est que Microsoft abuse de l'ignorance et de la dépendance des gens (entre autres choses), faudrait pas renverser les rôles. Il ne faut pas être coupable de ne pas savoir ce que c'est TCP/IP ou un sémaphore. A la rigueur, c'est un problème d'éducation, d'instruction (mais ça se discute) et on revient à ce que je disais : il faut un savoir très important pour maîtriser correctement Linux dans les conditions que j'ai définies aux points i), ii) et iii) d'un post ci-dessus. Là, je suis en train de dévier, mais il est vrai qu'il faut aussi un savoir exorbitant pour faire remarcher Windows quand il ne marche plus ou mal et à la limite y compris pour des instruits et ayant un bon background scientifique, je me demande si dans l'avenir les problèmes de maintenance informatique ne seront pas traités, y compris pour les particuliers, comme le sont les problèmes de plomberie ou d'électricité voire de réseau numérique -- combien de gens qui sont complètement démunis par l'installation et la gestion de leur "réseau" accès internet, Voix IP, Télévision numérique, etc ? --
par des petites SS2I voire par du télé-dépannage, c'est quelque chose de très courant chez les artisans.
Dernière édition par Candide le Mar 01 Mai, 2007 21:44, édité 1 fois au total.
Candide

Messages : 230

Mar 01 Mai, 2007 21:43

Jess a écrit:Dans le poste où tu répondais à l'intervenant qui disait avoir eu de gros soucis d'installation avec XP... rappelle toi!

Cite précisément (balises quote).
Candide

Messages : 230

Mar 01 Mai, 2007 22:01

Candide a écrit:Cite précisément (balises quote).


Candide, Posté le: Mar 01 Mai, 2007 20:26 a écrit:tu n'as certes pas dit cela explicitement cela mais c'était dans un contexte où tu disais que...

Toi tu t'octroies le droit d'interpréter les phrases des autres, mais les tiennes doivent absolument être prises au pied de la lettre. Continue, tu les auras peut-être à l'usure.

Bonne nuit ! :)
Quand tout le reste a échoué, lisez le mode d'emploi.
yostral

Avatar de l’utilisateur
Messages : 5403
Géo : Là-haut dans la montagne...

Mar 01 Mai, 2007 22:10

Avant de sortir des âneries sur les "optimisations" d'un noyau, renseigne-toi un peu aussi sur les différents types de noyaux qui peuvent exister (par exemple basse latence), leurs particularités et leur intérêts pour certaines personnes.


0) Quelles âneries (citation) ?
1) Ce n'est pas moi qui ai parlé d'optimisation.
2) Les explications données par une personne pratiquant le changement de noyau disent (sic) :
C'est souvent une demande des fans de l'optimisation, histoire de.
3) Que certaines personnes aient besoin d'un noyau optimisé, c'est fort possible mais cela ne correspond-il pas des besoins extrêmement spécifiques ? Qu'en est-il du commun des utilisateurs ?
Candide

Messages : 230

Mar 01 Mai, 2007 22:58

yostral a écrit:
Candide, Posté le: Mar 01 Mai, 2007 20:26 a écrit:tu n'as certes pas dit cela explicitement cela mais c'était dans un contexte où tu disais que...

Toi tu t'octroies le droit d'interpréter les phrases des autres, mais les tiennes doivent absolument être prises au pied de la lettre.


Ce n'est pas de cette citation qu'il s'agissait. Mais, peu importe : détrompe-toi, l'esprit a pour moi autant d'importance que la lettre. On peut interpréter mes propos, il suffit simplement que ce soit en accord avec le contexte. Si je me suis trompé, je le reconnaitrai sans difficulté, ça m'est déjà arrivé ici même. En l'espèce, c'est toi qui ne sais pas lire la lettre et percevoir le contexte. Une petite explication bien que ce soit désagréable de rentrer dans ce genre de joutes stériles. Le post original d'alexmath du Mar 01 Mai, 2007 17:40 et le réponse que j'y faisais sont ci-dessous :



alexmath a écrit:A lire certain post à commencer par celui de l'auteur de ce topic on a l'impression que les detracteurs des os à base de noyau linux ont quelques années voir decennies de retard ou alors ils en sont restés à slackware ou gentoo.

A coté de ça, on trouve des distributions linux dite live cd qui permettent une installation graphique genre Simply-Mepis, Mandriva one, knoppix, et qui la plupart du temps reconnaissent tout ou une bonne partie du materiel integré à l'unité central (or webcam et autre artifice). Pareil pour ce qui est de l'installation d'un logiciel : il me semble quand meme qu'il est beaucoup plus simple d'utiliser un synaptic/rpmdrake ou equivalent que de rechercher sur le web un logiciel et faire une installation à l'arache.
( petite information au passage : les distributions linux grands publics ne se resument pas SEULEMENT à ubuntu )

Petit resumé de mes différentes experiences personnelles en matiere d'installation de systeme d'exploitation.
Installation d'un windows xp sp2 sur un pc muni d'un disque dur sata : obligation d'avoir recours à une disquette contenant les pilotes du controleur sata pour que l'installateur detecte le disque et accessoirement obligation d'avoir un lecteur de disquette. une fois ces peripeties passées, internet ne fonctionne pas, il faut installer les pilotes de la carte mère pour que windows reconnaisse le controleur reseau. idem pour l'audio. Reboot imminent en perspective.
A noter que j'ai un pc ne disposant ni de lecteur optique ni de lecteur disquette. Donc ce pc ne verra jamais windows (le pauvre pensez vous? je dirais plutot quelle chance)
Sur le pc sur lequel j'ai windows, j'ai installé une debian sarge avec un noyau 2.6.8 (oui ça fait un moment deja) des l'install, le disque sata est detecté, le reseau fonctionne et une fois terminé d'installer, le son est operationnel. Donc d'apres mon experience je me demande quel est le systeme le plus simple à installer.
J'ai pris volontairement comme exemple celui de debian sarge car le noyau est assez ancien au vu de la vitesse à laquelle ces derniers evoluent.

Donc pour ceux qui disent qu'il est plus simple d'installer windows qu'un os à base de noyau linux je dis : ça reste à prouver.

Ma réponse :

candide a écrit:Je ne discute pas de la véracité de ton expérience. Mais tu n'as absolument rien prouvé. Un utilisateur lambda n'a pas a savoir ce qu'est le support SATA ou ATA voire ce qu'est un noyau. C'est simple d'installer une debian sarge pour quelqu'un qui veut le faire et qui a potassé suffisamment de temps les docs ou qui a autour de lui l'environnement pour se lancer là-dedans. L'extrême immense majorité des utilisateurs n'a pas le temps de faire cet investissement intellectuel.


A partir de là, la personne dénommée Jess me dit :

Jess a écrit:C'est dingue d'arriver à dire que seul Debian pose problème à installer


Et je demande à Jess de me dire mais où donc (-> citation exacte) il a pu bien lire dans mon message que j'ai prétendu que "seul Debian pose problème à installer". Tous les lecteurs pourront juger, il suffit de lire, que je n'ai jamais dit ça dans ma réponse, je dit même à alexmath que je reconnais la véracité de son expérience (autrement dit qu'il a eu plus de facilité à installer une debian que Windows). J'ajoute seulement que ça ne prouve rien, je parle de PREUVE, j'affirme encore moins que Debian pose problème à installer. L'expérience d'alexmath n'est pas une preuve, ma propre expérience non plus d'ailleurs, c'est juste un élément qui lui permet de se forger un AVIS, maintenant chacun a le droit d'avoir son avis. Et je termine mon message en parlant de tout autre chose, qui est d'ailleurs un point de vue tout à fait personnel, qu'on n'est absolument pas obligé de partager, à savoir qu'un utilisateur d'informatique n'a pas être un expert en informatique, qu'il a le droit de même pas savoir ce qu'est le support SATA, etc.
D'ailleurs, alexmath s'est bien gardé de tirer la moindre conclusion et il a raison de dire que la simplicité d'installation de Windows par rapport à tel ou tel distrib de Linux n'est pas prouvée.


EDIT j'oubliais : bonne nuit yostral ;)
Candide

Messages : 230

Mar 01 Mai, 2007 23:02

Candide a écrit:3) Que certaines personnes aient besoin d'un noyau optimisé, c'est fort possible mais cela ne correspond-il pas des besoins extrêmement spécifiques ? Qu'en est-il du commun des utilisateurs ?
Hum tu connais les histoires de cache du processeurs, la prédiction de branchement, le pipelining, les déplacements conditionnels, sse, mmx, simd et toussa ?

Il se trouve que pour les familles de processeurs la façon d'exécuter les instructions diffèrent grandement et que des instructions/données alignées, arrangées et choisies pour tenir compte de la spécificité du CPU permettent d'économiser pas mal de boucles d'attentes. Le CPU ne fait pas que glander en attendant d'être sollicité pour l'utilisateur, il glande aussi en attendant que les accès mémoires veuillent bien se faire.

Un optimisation spécifique permet d'avoir un CPU qui fonctionnent pleinement. L'exemple parfait d'inoptimisation est celle du Pentium 4 à sa sortie. Tout le monde se plaignait de sa lenteur mais cette lenteur flagrante venait de son exigence sur l'agencement des instructions. Tout le monde rejetait la faute sur le CPU alors que celui-ci passait son temps à faire des accès à la mémoire parce que les instructions étaient jetées à la va que je te pousse par des compilateurs pas franchement optimiseurs (Le compilateur C de borland était un vraie misère, j'en ai eu des fou-rires en faisant de l'ingénierie inverse sur des programmes compilés avec).

Est-ce utile à l'utilisateur de savoir tout ça ? Non je ne pense pas mais c'est intéressant d'avoir les routines fréquemment utilisées optimisées afin de ne pas perdre de précieux temps CPU. Les ordinateurs disent merci aux programmes optimisées car ils utilisent moins d'énergie et de temps pour réaliser la même fonction.

Mais la discussion n'est pas sur le tuning ou les fous d'optimisations* mais sur la facilité à changer de version de kernel avec les distros grand publique, et franchement c'est simple.

* Tu parlais d'optimiser des algorithmes, saches que les compilateurs optimisent eux aussi les algorithmes et ne les retranscrivent pas tel que le programmeur l'a écrit dans le code source. Actuellement le travail d'optimisation est fait des deux côtés : le développeurs qui profile son code et passe du temps à trouver les zones chronophages, le compilateurs qui va, en fonction des arguments utilisés pour la compilation, agencer les instructions et données pour éviter que le CPU fasse lentement ce qu'il peut faire rapidement.
Attentyon, ponaytte maychante !
Téthis

Avatar de l’utilisateur
Messages : 3895
Géo : De passage chez les cathares

Mar 01 Mai, 2007 23:34

Est-ce utile à l'utilisateur de savoir tout ça ? Non je ne pense pas mais c'est intéressant d'avoir les routines fréquemment utilisées optimisées afin de ne pas perdre de précieux temps CPU. Les ordinateurs disent merci aux programmes optimisées car ils utilisent moins d'énergie et de temps pour réaliser la même fonction.

Mais la discussion n'est pas sur le tuning ou les fous d'optimisations* mais sur la facilité à changer de version de kernel avec les distros grand publique, et franchement c'est simple.

Là est le coeur de la question.


D'une part, tu ne me dis pas, en l'état actuel des choses si, lorsque j'utilise par exemple la dernière version d'Ubuntu, je dois changer mon kernel ou pas (je parle de dernière version parce que souvent sur ce forum mais aussi sur Usenet fcolc, j'entends dire qu'il faut disposer de la dernièreversion, ce que je trouve pour le moins étrange, mais passons c'est un autre débat).


Alors, tu dis "c'est intéressant" mais ça veut dire quoi "c'est intéressant", quel intérêt justement, tu gagnes du temps CPU certes mais est-ce significatif dans le cadre d'une utilisation standard ?
Tu ne dis pas si l'utilisateur moyen a vraiment à gagner à changer son noyau, je te dis tout de suite que je suis prêt à faire l'expérience et à changer mon noyau (si j'y arrive mais vous dites que c'est facile mais à vrai dire j'ai un doute) et à comparer les temps d'exécution de différents exécutables histoire de voir s'il y a vraiment une différence significative et mesurable. Peut-être disposes-tu de bench ?

Quand l'utilisateur saura-t-il qu'il doit changer son noyau pour le suivant ? Et est-ce que tous les programmes vont marcher comme avant après changement. Est-ce qu'il n'est pas plus risqué de changer son noyau pour gagner un tout petit peu de temps d'éxécution mais au risque de mettre en péril le système ? (je n'affirme rien, je pose juste la question). Ubuntu change tous les 6 mois, cela vaut-il la peine de changer le noyau.

Mon avis est que l'utilisateur entre vite dans une problématique très techniciste, une espèce de surenchère qui lui demande de plus en plus de savoir technique ce qui à la base n'est a priori pas sa formation. Mon avis est que ce genre de tâche doit être automatisé et ne doit pas être laissée à l'incompétence de l'utilisateur. C'est le système qui doit prendre en charge ce changement (à supposer qu'il soit vraiment utile) et le rendre complètement transparent à l'utilisateur surtout que tu dis que c'est une opération simple (si elle est simple pour l'utilsateur j'en déduis qu'elle l'est pour le système), enfin tel est mon avis.
Dernière édition par Candide le Mer 02 Mai, 2007 00:29, édité 1 fois au total.
Candide

Messages : 230

Mar 01 Mai, 2007 23:38

Téthis a écrit:Il se trouve que pour les familles de processeurs la façon d'exécuter les instructions diffèrent grandement et que des instructions/données alignées, arrangées et choisies pour tenir compte de la spécificité du CPU permettent d'économiser pas mal de boucles d'attentes.


Oui bien à part des cas très particuliers, j'aimerais bien voir des benchmarks d'utilisation montrant une différence significative entre les différents cas de noyaux. Sachant que pour la plupart des usages tout le CPU consommé est dans l'espace utilisateur et pas dans le noyau.

Et puis le noyau pourrait très bien détecter ces possibilités au runtime et non imposer une recompilation, mais Linus est un gros nul 8)

Mais la discussion n'est pas sur le tuning ou les fous d'optimisations* mais sur la facilité à changer de version de kernel avec les distros grand publique, et franchement c'est simple.


On est d'accord que quand tu sais quoi faire pour résoudre un problème ou un besoin particulier, c'est pas trop dur à faire. C'est comme la commande man : quand tu sais quel est le nom de la commande dont tu as besoin, c'est facile d'avoir son mode d'emploi.
AntoineP

Messages : 1038

Mer 02 Mai, 2007 00:18

AntoineP a écrit:Oui bien à part des cas très particuliers, j'aimerais bien voir des benchmarks d'utilisation montrant une différence significative entre les différents cas de noyaux. Sachant que pour la plupart des usages tout le CPU consommé est dans l'espace utilisateur et pas dans le noyau.
Je n'ai aucune idée du gain apporté. Généralement lorsque je compile le noyau c'est surtout pour éliminer tous ces modules inutiles avoir uniquement les options qui m'intéressent. Mais dans le cas des librairies de compression ou d'utilisation de cryptographie, le gain est significatif. Moins chez les autres programmes, surtout quand il y a des tonnes d'assert(). :D

Je suis aussi intéressé par des benchmarks pour savoir si oui ou non la plateforme "generic" des nouveaux kernels ubuntu est identique en terme de performance aux anciennes plateformes (i686, k7...). C'est un peu chic d'avoir un kernel optimisé en ayant le reste du système qui ne l'est pas. :)

En userspace on peut prendre l'exemple de l'énorme glibc. Idem intéressé par des benchs.

AntoineP a écrit:Et puis le noyau pourrait très bien détecter ces possibilités au runtime et non imposer une recompilation, mais Linus est un gros nul 8)
RMS l'est moins puisque GCC peut optimiser sans pour autant casser la compatibilité (-mtune au lieu de -march), du genre on apporte des optimisations pour un k7 tout en laissant le programmes exécutables sur un i486 (pas de mmx, sse, 3dnow, cmov...).

Le kernel un nouvel mplayer ?

On est d'accord que quand tu sais quoi faire pour résoudre un problème ou un besoin particulier, c'est pas trop dur à faire.
Idem sous n'importe quel OS. Non, je n'ai pas parlé de windows. ;)
Attentyon, ponaytte maychante !
Téthis

Avatar de l’utilisateur
Messages : 3895
Géo : De passage chez les cathares

Qui est en ligne ?

Utilisateur(s) parcourant actuellement ce forum : Aucun utilisateur inscrit