Discussion:
dpi, lpi, ppi, ppp, cpr (comprends plus rien)
(trop ancien pour répondre)
Daniel
2005-01-11 16:07:02 UTC
Permalink
Bonjour,

Alors on a les dpi (dots per inch)pour les images imprimées et les ppi
(pixels per inch) pour les images affichées.

Et puis on a les ppi (pixels par pouce) et les ppi (points par pouces).

Les ppi (en anglais) et les ppi (en français), c'est pareil.

Les dpi (anglais) et les ppi (français, mais pour points par pouce)
c'est pareil.

On a donc les dpi (anglais) et les ppi (pixels par pouce) qui
désignent la même chose, mais pixels pour l'écran et point pour
l'impression.

On imprime donc avec une lpi (ligne par/per pouce) une image en 300 dpi
ou en 300 ppi.

Le nombre de pixels est donc toujours égal au nombre de points
d'impression ? Et quid de la résolution de l'imprimante ?

Quand je vous dis que cpr !

Daniel.

PS : Oui, je sais, je fais dans la question de base en ce moment mais
plus je lis de livres, plus il m'apparait que la confusion règne dans
notre joli monde.
aclertant
2005-01-11 17:00:57 UTC
Permalink
Post by Daniel
Bonjour,
Alors on a les dpi (dots per inch)pour les images imprimées et les ppi
(pixels per inch) pour les images affichées.
Jusque la ca va...
Post by Daniel
Et puis on a les ppi (pixels par pouce) et les ppi (points par pouces).
A mon avis tu en as de trop ;o)
Post by Daniel
Les ppi (en anglais) et les ppi (en français), c'est pareil.
Pas tout a fait : en Anglais pour etre sur c'est Dot Per Inch
Post by Daniel
Les dpi (anglais) et les ppi (français, mais pour points par pouce) c'est
pareil.
Oui la c'est pareil a 2 - 3 details près (nb C'est inch en fait)
Post by Daniel
On a donc les dpi (anglais) et les ppi (pixels par pouce) qui désignent
la même chose, mais pixels pour l'écran et point pour l'impression.
Si tu veut mais poukoi t'embrouiller a comparer quand c'est different ?
Post by Daniel
On imprime donc avec une lpi (ligne par/per pouce) une image en 300 dpi ou
en 300 ppi.
La encore c'est pareil (ca depent si tu veut image pour le print ou le web)
mais rien ne t'empeche de passer de l'un a l'autre, cependant les images de
300 dpi sont rares sur le web.

Par contre Lpi ca c'est encore autre chose ca definit ta lineature (pour
faire des trames) mais generalement tu gere ca dans Xpress (attention a ta
defonces si tu change ca j'ai eu de gros souci de moirage)
Post by Daniel
Le nombre de pixels est donc toujours égal au nombre de points
d'impression ? Et quid de la résolution de l'imprimante ?
Dans photoshop oui tu peut passer de l'un a l'autre sans probleme mais les
dot ne sont pas des inch !
Pour la resolution d'impression tu fait une multiplication de tes données
constructeur (celle de ton imprimante evidement, mais si tu les trouvent tu
aura trouvez avant quel resolution elle fait)
Post by Daniel
Quand je vous dis que cpr !
Daniel.
PS : Oui, je sais, je fais dans la question de base en ce moment mais plus
je lis de livres, plus il m'apparait que la confusion règne dans notre
joli monde.
J'espere t'avoir aider mais le mieux serai que tu essaye d'etre plus clair
:o) parceque la c'est pas evident de dechiffrer

A+
Yann MARTINEAU
2005-01-12 10:53:34 UTC
Permalink
Post by aclertant
La encore c'est pareil (ca depent si tu veut image pour le print ou le web)
mais rien ne t'empeche de passer de l'un a l'autre, cependant les images de
300 dpi sont rares sur le web.
Aïe ! attention, sur le web on ne parle jamais de définition d'image,
celles-ci sont définies en X pixels de large sur Y pixels de haut.
étant donné que l'on construit une page dans un rectangle de 800x600
pixels (en gros), toutes les images à y intégrer sont dimensionnées sur
le même principe...parler de définition dans ce cas n'a aucune utilité,
même si photoshop en affiche une dans son menu "taille d'image", celle
ci pourrrait très bien être de 300 dpi sans que cela ne change rien aux
images du moment qu'elles font "tant" de pixels sur "tant" de pixels.
Cette définition ne sert que pour la sortie papier.
J'ai envie de résumer la chose des "dpi" ou "ppp" comme ça :
Lorsque l'image à imprimer est à l'écran on parle de Pixels Par Pouce
(en français...traduit en anglais Dots Per Inch)
Lorsque l'image à imprimer est sur le papier on parle de Points Par
Pouce (en français...traduit en anglais Dots Per Inch aussi)
Sur le papier le point (ou Dot) peut être un point de trame défini par
une flasheuse, une goutelette d'encre sur une jet-d'encre etc...
Donc il n'y a rien de compliqué en soit si ce n'est de connaître les
différents types de tramage des différents procédés utilisés dans une
chaîne graphique et qui finalement utilisent tous la même unité
"générique" des ppp ou dpi selon la langue.
--
Yann MARTINEAU
Daniel
2005-01-12 16:54:00 UTC
Permalink
Merci de ces indications que j'ai étudiées à la loupe, j'ai essayé de
faire court. Je n’y suis pas arrivé.
Post by Yann MARTINEAU
Post by aclertant
La encore c'est pareil (ca depent si tu veut image pour le print ou le
web) mais rien ne t'empeche de passer de l'un a l'autre, cependant les
images de 300 dpi sont rares sur le web.
Cette mystérieuse citation sort d'où ? Je ne l'ai pas dans le fil de la
discussion ou ailleurs sur le forum... Un autre problème de lunettes
pour moi ?
Post by Yann MARTINEAU
Aïe ! attention, sur le web on ne parle jamais de définition d'image,
celles-ci sont définies en X pixels de large sur Y pixels de haut.
étant donné que l'on construit une page dans un rectangle de 800x600
pixels (en gros), toutes les images à y intégrer sont dimensionnées sur
le même principe...parler de définition dans ce cas n'a aucune utilité,
même si photoshop en affiche une dans son menu "taille d'image", celle
ci pourrrait très bien être de 300 dpi sans que cela ne change rien aux
images du moment qu'elles font "tant" de pixels sur "tant" de pixels.
Pour un écran affichant 1024 pixels en largeur pour une surface
d'affichage de 12 pouces environ de large, on a donc 1024/12=85 pixels
par pouce. Donc si on scanne une photo de l x L cm, celle-ci aura à
l'écran environ une dimension de l x L cm si je la scanne avec un
paramètre de 85 dpi.

Je suis bien d'accord pour dire que la notion de résolution d'une image
destinée à l'affichage-écran n'a pas vraiment de sens ( Preuve en est
que ImageReady ne pose jamais la question).
Si, couramment et abusivement donc, on dit que les images pour l'écran
sont en 72 dpi, on entend qu'elles ont "environ" la même taille à
l'écran que sur le papier. On prend 72 dpi à cause des antiques premiers
Mac.
Post by Yann MARTINEAU
Cette définition ne sert que pour la sortie papier.
C'est à présent évident. Mon problème est de passer du "ppi" au "dpi".
Post by Yann MARTINEAU
Lorsque l'image à imprimer est à l'écran on parle de Pixels Par Pouce
(en français...traduit en anglais Dots Per Inch)
Une image, affichée sur mon bel écran, et destinée à l'impression est en
300 ppi, par exemple.
Post by Yann MARTINEAU
Lorsque l'image à imprimer est sur le papier on parle de Points Par
Pouce (en français...traduit en anglais Dots Per Inch aussi)
La même image imprimée est en 300 dpi(?).
Post by Yann MARTINEAU
Sur le papier le point (ou Dot) peut être un point de trame défini par
une flasheuse, une goutelette d'encre sur une jet-d'encre etc...
C'est là qu'est l'ambiguïté, pour moi.

Pour faire plus simple, n'utilisons que les unités en anglais (pas de
chance, en français Point et Pixel commencent par la même lettre) et
excluons le cas du dessin au trait.

D'après ce que j'ai compris :

Un pixel du "ppi" de mon image à l'écran correspond à un point de trame
du "dpi" de mon image imprimée.

Les points de "dpi" de la résolution de mon image imprimée ne sont pas
les mêmes que les points du "dpi" de la résolution de mon imprimante.

Les points du "dpi" de la résolution de mon image imprimée sont
constitués par les points du "dpi" de la résolution de mon imprimante.

Le "dot" du "dpi" de mon image imprimée est composé de "dots" du "dpi"
de mon imprimante.
Post by Yann MARTINEAU
Donc il n'y a rien de compliqué en soit si ce n'est de connaître les
différents types de tramage des différents procédés utilisés dans une
chaîne graphique et qui finalement utilisent tous la même unité
"générique" des ppp ou dpi selon la langue.
En fait:

Soit une image, carrée sur mon bel écran, de 3 000 pixels de large.
Je veux l'imprimer sur mon imprimante qui a une résolution de 1200 dpi.
Je définis une résolution de 300 ppi pour obtenir une taille d'image
imprimée qui me convient.
Je vais donc définir une linéature de trame telle que les 1200 points
élémentaires que mon imprimante peut générer vont me permettre d'obtenir
suffisamment de niveaux de gris pour que mon image soit "le mieux possible".

Si je baisse la résolution de mon image, pour une linéature de trame
donnée, l'imprimante va avoir à imprimer des pixels plus gros avec le
même nombre de points de trame. Elle pourra générer plus de niveaux de
gris mais mon image sera pixélisée.

Si j'augmente le nombre de pixels par pouce de mon image (sa résolution
donc), mon imprimante va avoir des pixels plus petits à imprimer avec le
même nombre de points élémentaires par pouce. L'image sera donc plus
"jolie" mais, dépassé une certaine résolution de l'image, le nombre de
niveaux de gris diminuera.

En fait, l'élément qui manquait au puzzle de ma cervelle est sur
http://sawww.epfl.ch/SIC/SA/publications/FI00/fi-3-00/3-00-page3.html ,
avec une erreur pour la légende de la première image qui n'est donc pas
en "ppi" (pixels par pouce") mais en "dpi" puisqu'elle représente la
trame de l'image. Bien entendue les points de trame constitués des
points élémentaires d'impression ne sont pas carrés.

Merci de contribuer à ma sortie du brouillard.

Daniel.
Daniel
2005-01-13 14:37:52 UTC
Permalink
L'aide d'ID donne la définition suivante :

"La plupart des imprimantes simulent les gris en utilisant des points de
demi-teintes imprimés sur une grille formée de cellules (appelées
cellules de demi-teintes) et de rangées (appelées lignes ou trames
lignées). Chaque point de demi-teintes est constitué de points
d'impression. Si les cellules de demi-teintes se remplissent de points
d'impression, le point de demi-teinte s'agrandit et l'ombre grisée
devient plus foncée.

La résolution de l'imprimante détermine le nombre de points disponibles
pour créer le point de demi-teintes. Une imprimante capable d'imprimer
de petits points peut produire une plus grande variété de tailles de
points de demi-teintes et donc un plus grand nombre de nuances de gris.
La linéature entre aussi en jeu : lorsqu'elle augmente, la cellule de
demi-teintes se réduit et contient moins de points. Les nuances de gris
possibles sont alors moins nombreuses. Il en résulte une relation entre
le nombre de niveaux de gris possibles et la grossièreté de l'image."

C'est donc bien ce que je pensais (ou fini par penser): le d du "dpi" de
la résolution de mon image imprimée est composée de points élémentaires
qui sont les d du "dpi" de mon imprimante. Chaque points de trame
correspond à un pixel.
Tardigradus
2005-01-19 22:40:38 UTC
Permalink
Post by Daniel
Chaque points de trame
correspond à un pixel.
Non. les pixels sont alignés, carrés, jointifs et d'une couleur variant
dans une gamme de 16,7 millions. Les points de la trame aléatoire d'une
imprimante jet d'encre sont non alignés (c'est le principe même de la
trame aléatoire), ronds (en général), non jointifs sauf dans certaines
zones très denses en couleurs et d'une couleur choisie parmi 4. Il y a
un calcul effectué pour convertir les pixels en points d'impression, que
ce soit pour une trame aléatoire ou pour une trame classique
d'impression offset par exemple.
--
Tardigradus
lentement mais sûrement
Papy Bernard
2005-01-13 10:54:24 UTC
Permalink
Slt,

D'"aclertant"
Post by aclertant
La encore c'est pareil (ca depent si tu veut image pour le print ou le web)
mais rien ne t'empeche de passer de l'un a l'autre, cependant les images de
*300 dpi sont rares sur le web*.
Je dirais même *inexistantes*. Le web n'affiche que des pixels.

--
A+
Papy Bernard (RTCien malgré lui)
Tatord totor
2005-01-11 17:20:57 UTC
Permalink
Daniel,
..Et puis on a les ppi (pixels par pouce) et les ppi (points par pouces).
.../
plus je lis de livres, plus il m'apparait que la confusion règne dans
notre joli monde.
Àmha celà n'est pas trop grave, dans l'ensemble - en pratique - chacun y
retrouve ses petits ...


Je pense que les différences que tu mets en relief sont dues, en bonne
partie, qu'elles divergent selon le domaine d'activité du paoïste ou
graphiste... et ici déjà, commence l'ambiguïté ... un graphiste d'exé ou de
créa ne travaillent pas tout à fait de la même façon quant au travail de
post-production, souvent exercé par un ancien graphiste d'exé, ça diverge
encore ...

... Bref, si l'on considère que des expressions génériques telles que
Paoïstes, graphistes, et autres terminoligies u.s. recouvrent certaines
partie des anciens corps de métiers des arts graphisques, ce si explique
celà.

Un exemple concret: un photographe, un "webmaster" et un graphiste qui
travaille dans le domaine de l'impression papier ne vont pas exprimer la
qualité d'une photo numérique de la même manière... Pour le photographe
c'est la dimension et la richesse des informations de la photo qui compte,
il n'en a rien à faire des dpi qui sont déterminant pour l'imprimeur quant à
la qualité de l'image qu'il imprime... tandis que le "webmaster" va plutôt
s'intéresser aux nombre de pixels...

... et cela, sans compter avec la confusion entre les abréviations anglaises
et françaises, comme c'est le cas avec les ppi (pixel per inch) et les ppp
(pixel par pouces) qui veulent dire la même chose...

Avec les dpi ça se gâte vraiment... la confusion est à son comble car les
dpi définissent en fait une qualité d'impression (initialement du
PostScript) tandis qu'en pratique les dpi sont utilisés pour déterminer la
richesse d'une photo du point de vue de la PAO et de l'imprimeur (pas du
photographe). Mais en pratique tous le monde sait qu'une image à 300 dpi
n'est en fait qu'une image à 300 pixel par pouce (ppp) ou bien pixel per
inch (ppi).

Le dot per inch, du point de vue des ingénieurs qui ont développé le langage
PostScript (et aussi de q.q.'uns qui les ont précédés) avait pour objectif
de décrire le point (dot) le plus fin que pouvait produire une
photocomposeuse - devenue par la suite des flasheuses PostScript, puis des
flasheuses tout court...

Les vendeurs d'imprimantes laser se sont emparés de l'expression suivi de
près par KroSoft avec son Windose 3.0. Moi qui

Quel cirque pour flasher sous Windose 3.0, le pilote PostScript avait
établit - une fois pour toute, pour faire simple - que les traits et filets
devaient tous s'imprimer avec la commande PS ordonnant de réaliser le trait
le plus fin possible du périphérique de sortie PostScript... la base retenue
étant que la plupart des imprimantes laser PostScript fonctionnaient en 300
dpi... avec une flasheuse à 1200 dpi les filets PostScript devenaient
pratiquement invisibles et en 2400 avaient complétement disparus.

Le lpi (line per inch) correspond à la linéature. Comme le dpi, le lpi est
relatif à l'impression Offset et au langage PostScript. La combinaison dpi /
lpi correspond à la qualité d'un trame avec différentes valeurs de gris
(dégradé). Ainsi on emploie couramment une combinaison de 2400 dpi 175 lpi
pour une impression Offset sur un beau papier couché, tandis qu'une
combinaison de 1200 dpi / 133 lpi serait peut être plus appropriée sur un
papier ordinaire... mais ça dépend aussi d'autres facteurs, le genre
d'image, les couleurs, etc.

Quant aux imprimantes, dès le début, avec ou sans dpi, les chiffres avancés,
c'était déjà du bla-bla... aujourd'hui, parler de dpi pour une imprimante de
bureau ne signifie pas grand-chose.


cordialement,
michel cr
Frédéric Momméja
2005-01-12 13:38:50 UTC
Permalink
Tatord totor écrivait le 11/01/05 18:20 :
[SNIP]
Post by Tatord totor
Quant aux imprimantes, dès le début, avec ou sans dpi, les chiffres avancés,
c'était déjà du bla-bla... aujourd'hui, parler de dpi pour une imprimante de
bureau ne signifie pas grand-chose.
Ne faisons pas l'amalgame imprimantes laser et imprimantes jet d'encre.
Ta remarque s'applique aux dernières mais pas aux premières... ;)
--
Frédéric Momméja
Papy Bernard
2005-01-13 11:32:08 UTC
Permalink
Slt,

De "Tatord totor"

Non, T'as pas tort, Tatord.
Post by Tatord totor
Àmha celà n'est pas trop grave, dans l'ensemble - en pratique - chacun y
retrouve ses petits ...
Chacun mais pas tout le monde.
Post by Tatord totor
Je pense que les différences que tu mets en relief sont dues, en bonne
partie, qu'elles divergent selon le domaine d'activité du paoïste ou
graphiste... et ici déjà, commence l'ambiguïté ... un graphiste d'exé ou de
créa ne travaillent pas tout à fait de la même façon quant au travail de
post-production, souvent exercé par un ancien graphiste d'exé, ça diverge
encore ...
Sans parler de l'activité du graphiste et de ses relations avec l'imprimeur,
cette appellation dpi/ppi ne peut prêter qu'à confusion parce que derrière
ces dpi/ppi se cachent différentes acceptions.

En matière d'image numérique (dpi = ppi), il y a :
- les dpi de la numérisation qui déterminent précision/taille de l'image
restituée par la numérisation d'un document papier
- les dpi qui conditionnent les dimensions de l'impression. Cette valeur,
outre que c'est un vieil héritage de Mac/Adode, est une information qui fait
partie de l'entête du fichier. Arbitrairement et par défaut, elle est de 72
dpi.
- les dpi de configuration d'imprimante (notion qui tend à diapraître
pouir être remplacer par des notions de qualité d'impression.
Post by Tatord totor
Un exemple concret: un photographe, un "webmaster" et un graphiste qui
travaille dans le domaine de l'impression papier ne vont pas exprimer la
qualité d'une photo numérique de la même manière... Pour le photographe
c'est la dimension et la richesse des informations de la photo qui compte,
il n'en a rien à faire des dpi qui sont déterminant pour l'imprimeur quant à
la qualité de l'image qu'il imprime... tandis que le "webmaster" va plutôt
s'intéresser aux nombre de pixels...
Avec les dpi ça se gâte vraiment... la confusion est à son comble car les
dpi définissent en fait une qualité d'impression (initialement du
PostScript) tandis qu'en pratique les dpi sont utilisés pour déterminer la
richesse d'une photo du point de vue de la PAO et de l'imprimeur (pas du
photographe). Mais en pratique tous le monde sait qu'une image à 300 dpi
n'est en fait qu'une image à 300 pixel par pouce (ppp) ou bien pixel per
inch (ppi).
Le drame survient lorsque la notion de dpi est appliquée à l'écran. J'en
connais (de sio-disant *formateurs*) qui affirment et maintiennent contre
toute évidence qu'une image web est en 72 dpi.
Post by Tatord totor
Le dot per inch, du point de vue des ingénieurs qui ont développé le langage
PostScript (et aussi de q.q.'uns qui les ont précédés) avait pour objectif
de décrire le point (dot) le plus fin que pouvait produire une
photocomposeuse - devenue par la suite des flasheuses PostScript, puis des
flasheuses tout court...
Les vendeurs d'imprimantes laser se sont emparés de l'expression suivi de
près par KroSoft avec son Windose 3.0. Moi qui
Quant aux imprimantes, dès le début, avec ou sans dpi, les chiffres avancés,
c'était déjà du bla-bla... aujourd'hui, parler de dpi pour une imprimante de
bureau ne signifie pas grand-chose.
Blablaba, pas pour les fabricants d'encre qui faisaient, via les marketeux
et les vendeurs gober aux gogos qu'une photo ne pouvait être imprimer QUE
sous une *résolution de 1440 dpi. Bonjour la consommation sans amélioration.
Des arguments de vendeurs de bas étages pour clients totalement ignorants.
Au royaume des aveugles, les borgnes sont rois.

Pour les impressions sur jet d'encre perso, les recommandations de
résolution des uns et des autres vont de 200 à 300 dpi (ceux qui déterminent
les dimensions de l'impression).
Perso, je me suis livré à des essais à partir d'une mire N&B pour reproduire
une trame de pixels N&B (1 noir, 1 blanc) par une impression telle que je
retrouve mon image.
Jusqu'à présent, sur plusieurs imprimantes jet d'encre, seule une
*résolution* de 180 dpi me restituait cette image sans interférences. Et
encore, résultat valable à l'horizontale mais pas dans le sens vertical.

Je passe sous silence la résolution d'écran : 72/96 dpi qui ne veut
ABSOLUMENT rien dire.

--
A+
Papy Bernard (RTCien malgré lui)
Daniel
2005-01-13 13:48:04 UTC
Permalink
Post by Tatord totor
Je pense que les différences que tu mets en relief sont dues, en bonne
Post by Tatord totor
partie, qu'elles divergent selon le domaine d'activité du paoïste ou
graphiste... et ici déjà, commence l'ambiguïté ... un graphiste d'exé ou
de
Post by Tatord totor
Post by Tatord totor
créa ne travaillent pas tout à fait de la même façon quant au travail de
post-production, souvent exercé par un ancien graphiste d'exé, ça diverge
encore ...
Bon sang mais elle sort d'où cette citation ! J'ai rien sur mon écran !

Pourriez-vous me dire si le raisonnement que je tiens dans mon précédent
message est bon ou pas ? C'est que je ne dors plus avec cette histoire,
moi ;-)

Merci par avance.

Daniel.
Tardigradus
2005-01-19 22:48:42 UTC
Permalink
Post by Papy Bernard
Je passe sous silence la résolution d'écran : 72/96 dpi qui ne veut
ABSOLUMENT rien dire.
Ben si : si tu mets une règle graduée en pouces sur un écran et que tu
comptes les pixels d'écran qui tiennent dans un pouce, tu verras bien
qu'il y en a un nombre déterminé.
--
Tardigradus
lentement mais sûrement
Papy Bernard
2005-01-19 23:52:09 UTC
Permalink
Slt, "Tardigradus"
Post by Tardigradus
Ben si : si tu mets une règle graduée en pouces sur un écran et que tu
comptes les pixels d'écran qui tiennent dans un pouce, tu verras bien
qu'il y en a un nombre déterminé.
Mon réglet d'ajusteur a du mal à te suivre dans ton raisonnement.

Sur un écran 15", selon la configuration :

640x480 = 53 dpi
800x600 = 66 dpi
1024x768 = 85 dpi
1152x864 = 96 dpi
1280x960 = 106 dpi

sur un écran 17" :

640x480 = 47 dpi
800x600 = 58 dpi
1024x768 = 75 dpi
1152x864 = 84 dpi
1280x960 = 94 dpi

Et alors ?????

Je t'en donne d'autres à la pelle si tu le souhaites, des *dpi* d'écran
(affichage).

RIEN à voir avec les 72/96 dpi, information nécessaire au fichier.

Je maintiens : des *dpi* d'écran , cela ne veut RIEN dire.

--
A+
Papy Bernard (RTCien malgré lui)
Tardigradus
2005-01-20 05:36:12 UTC
Permalink
Post by Papy Bernard
Je t'en donne d'autres à la pelle si tu le souhaites, des *dpi* d'écran
(affichage).
Et alors ? J'ai pas dit le contraire, j'ai juste dit qu'il y en avait.
Post by Papy Bernard
RIEN à voir avec les 72/96 dpi, information nécessaire au fichier.
J'ai pas dit ça non plus. T'es tellement dans ton truc que tu ne prends
pas la peine de lire et de comprendre ce que disent les autres. Si je
t'ai répondu, ce n'est pas nécéssairement pour te contredire. La
discussion n'est pas nécéssairement un combat dont le grincheux et
désagréable papy bernard sort vainqueur contre tous ces cons qui ne
connaissent rien aux histoires de résolution, tu sais...
--
Tardigradus
lentement mais sûrement
Daniel
2005-01-20 16:21:17 UTC
Permalink
Sinon, sans vous déranger, pour ma question originale... ;-)

En ce qui concerne la résolution à l'écran, dans Toshop vous pouvait
ouvrir un nouveau document et lui coller une résolution de trois
millions si vous voulez, le logiciel n'en prendra pas ombrage. Essayez
de mettre 1.


Ceci dit, à partir du moment où un écran est de dimension fixe et qu'on
y affiche un nombre constant et fini de pixel, on peut toujours parler
de "nombre de pixel par unité de mesure". Que cela ait une utilité ou
pas, c'est un autre problème. Le problème, c'est la confusion des
unités, surtout en français...

Daniel.
Tardigradus
2005-01-20 18:42:52 UTC
Permalink
Post by Daniel
Sinon, sans vous déranger, pour ma question originale... ;-)
Le nombre de pixels est donc toujours égal au nombre de points
d'impression ? Et quid de la résolution de l'imprimante ?
La réponse est non : les pixels et les points d'encre déposé sur le
papier n'ont rien à voir, si ce n'est un calcul qui permet de passer de
l'un à l'autre, calcul variant selon tout un tas de paramètres. Mais
rien de direct : on n'imprime pas des pixels. D'abord, un pixel, ça n'a
pas d'existence physique, c'est juste un tas de chiffres dans la mémoire
de l'ordinateur.
--
Tardigradus
lentement mais sûrement
GraphSeb
2005-01-21 08:26:06 UTC
Permalink
Post by Daniel
[...]
Ceci dit, à partir du moment où un écran est de dimension fixe et
qu'on y affiche un nombre constant et fini de pixel, on peut toujours
parler de "nombre de pixel par unité de mesure". Que cela ait une
utilité ou pas, c'est un autre problème. Le problème, c'est la
confusion des unités, surtout en français...
Quel écran ? Un écran n'affiche pas des pixels, mais des luminophores au
travers d'une grille (pour un CRT, simplifions) via trois canons. Par
essence, le pixel est un composite de luminophores et n'a aucune taille
physique, je peux composer mon pixel avec plus ou moins de luminophores,
dans les limites de la finesse de la grille (le pas de masque). Je peux
aussi conserver un masque (bord noir non utilisé pour l'affichage) plus ou
moins étendu sur cet écran, pour éviter les distorsions (effet de bord) dues
par exemple à la courbure de mon écran, etc.

Donc, chaque écran va proposer sa (fausse) résolution (pixels /pouces ou cm)
spécifique en fonction des réglages du moniteur, notamment. Cette donnée est
absurde par essence, ce ne peut être une règle. C'est comme parler de
densité de carottes au cm² de cageot : on peut en débattre des heures sans
arriver à rien.

Enfin, le troll perdure...
--
Seb
Papy Bernard
2005-01-21 10:18:37 UTC
Permalink
Slt,
De
Post by GraphSeb
Enfin, le troll perdure...
Et perdurera tant que la distinction entre physique et logique, entre
électronique et informatique ne seront pas entrés dans l'esprit de certains.

--
A+
Papy Bernard (RTCien malgré lui)

Jean-Christophe Lenormand
2005-01-20 09:58:55 UTC
Permalink
Post by Papy Bernard
Je t'en donne d'autres à la pelle si tu le souhaites, des *dpi* d'écran
(affichage).
je fais la même chose que Tardigradus avec mes stagiaires. J'essai même
de faire des mesures précises pour leur montrer que 2 17" du même
modèle, tous les 2 réglés à la même taille écran, peuvent avoir une
résolution "sensiblement" différente.
Post by Papy Bernard
RIEN à voir avec les 72/96 dpi, information nécessaire au fichier.
Il existe plein d'explication sur l'origine de ces 2 chiffres.
Post by Papy Bernard
Je maintiens : des *dpi* d'écran , cela ne veut RIEN dire.
C'est une mesure qui est réelle, on y peut rien c'est comme ca ! l'écran
à une largeur de X cm, il est capable d'afficher Y points sur cette
largeur, il a donc FORCEMENT une résolution de Y/X points/cm.

Maintenant, ce n'est pas parce que cette valeur de résolution existe,
qu'elle est utile. Lorsque l'on prépare des images pour un site, on s'en
balance de savoir si la résolution est a 72, 150 ou 354 ppp.

Cordialement,
--
Jean-Christophe Lenormand
http://www.image-et-net.com
Tardigradus
2005-01-19 22:48:41 UTC
Permalink
Post by Papy Bernard
Le drame survient lorsque la notion de dpi est appliquée à l'écran. J'en
connais (de sio-disant *formateurs*) qui affirment et maintiennent contre
toute évidence qu'une image web est en 72 dpi.
Ils ont à la fois tort et raison. Tort parce que la résolution n'a
aucune importance, seul compte le nombre de pixels, en largeur et en
hauteur.
Raison parce que les logiciels exigent une résolution. Une image sans
résolution, ça n'existe pas. Alors pourquoi 72 ? Tout simplement parce
que le web a été inventé sur Mac, et que les écrans de Mac font 72 ppp
de définition. La solution la plus simple était donc de choisir une
résolution telle que chaque pixel de l'image corresponde à 1 pixel
d'écran, ce qui simplifie les calculs : on voit l'image à la taille
qu'elle aura sur n'importe quel écran. Depuis, bien sûr, Window a
débarqué avec ses 96 ppp par défaut, mais l'habitude s'est maintenue
d'attribuer 72 ppp comme résolution pr défaut dans la plupart des cas.
--
Tardigradus
lentement mais sûrement
Papy Bernard
2005-01-19 23:52:30 UTC
Permalink
Slt,
De "Tardigradus"
Post by Tardigradus
Raison parce que les logiciels exigent une résolution. Une image sans
résolution, ça n'existe pas. Alors pourquoi 72 ? Tout simplement parce
que le web a été *inventé sur Mac*, et que les écrans de Mac font 72 ppp
de définition. La solution la plus simple était donc de choisir une
résolution telle que chaque pixel de l'image corresponde à 1 pixel
d'écran, ce qui simplifie les calculs : on voit l'image à la taille
qu'elle aura sur n'importe quel écran. Depuis, bien sûr, Window a
débarqué avec ses 96 ppp par défaut, mais l'habitude s'est maintenue
d'attribuer 72 ppp comme résolution pr défaut dans la plupart des cas.
1/ Le web n'a pas été inventé sur Mac.
2/ La résolution d'une image est une information nécessaire à l'entête du
*fichier*.Elle est par défaut de 72dpi. Elle pourrait être de quarante
treize, cela ne changerait RIEN.

--
A+
Papy Bernard (RTCien malgré lui)
Tardigradus
2005-01-20 05:36:14 UTC
Permalink
Post by Papy Bernard
1/ Le web n'a pas été inventé sur Mac.
T'as déjà vu des PC sur le Waeb au début des années 90 ? Non. Y'en avait
pas. Les techniques de fonctionnement du web tournaient bien entendu sur
les gros systèmes, mais les suels (ou presque, y'avait aussi quelques
stations type Sun) micros à pouvoir accéder au web étaient les Mac, et
cela son inventeur ne l'ignorait pas, vu qu'il bossait au CERN, sur mac.
Post by Papy Bernard
2/ La résolution d'une image est une information nécessaire à l'entête du
*fichier*.Elle est par défaut de 72dpi. Elle pourrait être de quarante
treize, cela ne changerait RIEN.
J'ai pas dit le contraire, j'ai juste dit que les logiciels exigeaient
une résolution. Toi y'en a comprendre ?
--
Tardigradus
lentement mais sûrement
Jean-Claude Ghislain
2005-01-20 00:12:32 UTC
Permalink
Alors pourquoi 72 ? Tout simplement parce que le web a été inventé sur
Mac
Le Web inventé sous Mac et expliquant les 72 dpi ???

Bon, il est 1h03 du mat et je suis fatigué, mais je vais tenter de faire
l'historique approximatif. Si je me plante grââve, d'autres corrigeront.

"Ecran = 72 dpi"

La base historique de cette affirmation remonte au premier Mac et à sa
volonté de s'implanter dans la PAO. C'était l'apparition du WYSIWYG
(What You See Is What You Get), la dimension d'un document devait être
reproductible dans la vie réelle, 1 cm sur l'écran = 1 cm sur la feuille
et, pour arriver à ce miracle, il fallait effectivement que le système
d'exploitation et les softs travaillent à 72 dpi.

Pourquoi 72 et pas 70 ou 75 ???

Plusieurs raisons. D'abord la technologie de l'époque ne permettait pas
beaucoup mieux comme définition d'écran, mais pourquoi avoir choisi 72 ?
Le "point" est une unité de longueur traditionnelle en typographie, il
vaut 1/72 de pouce (1 pouce = 2,54 cm). Selon la définition vue par
l'informatique, une police de 12 points sera donc imprimée avec des
caractères de 12/72 pouces de haut.

Aujourd'hui cette norme de départ des 72 dpi écran est un peu (beaucoup)
risible, les écrans et cartes graphiques actuels sont capable de bien
mieux que ces 72 dpi. Windows se base sur 96, mais certains écrans
modernes sont capable de beaucoup plus. Je pense notamment à l'IBM T221
qui a une définition supérieure à 200 points par pouce :
http://minilien.com/?8ogMzEpYkh
--
Jean-Claude Ghislain
www.grimart.com
Tardigradus
2005-01-20 05:36:11 UTC
Permalink
Post by Jean-Claude Ghislain
Le "point" est une unité de longueur traditionnelle en typographie, il
vaut 1/72 de pouce (1 pouce = 2,54 cm).
Pas exactement. Je n'ai pas les références sous la main, mais le point
pica, en usage dans le monde anglo-saxon de l'imprimerie traditionnelle,
vaut 1/72e de pouce plus ou moins un chouïa. Il a été arrondi à 1/72e
exactement et rebaptisé point DTP (desktop publishing). Je n'ai pas jugé
utilse d'expliquer pourquoi le mac avait une résolution d'écran de 72
ppp pour ne pas alourdir. Merci d'avoir complété.
--
Tardigradus
lentement mais sûrement
Loading...