Moin!
bitte klär mich auf: eine druckfähige vorlage, selbe größe, 300 dpi ist schlicht 2,5 mal so groß wie das selbe bild, selbe größe mit 72 dpi, sagt mein scanner, sagt mein compi, sagt der grafiker???
Korrekt, korrekt, korrekt.
Folgendes bitte ich aber mal durchzudenken: Im Computer selbst existieren nur Pixel. Viele viele nebeneinander, viele viele untereinander, und bilden ein Bild.
Wenn du also als Ergebnis eines Scanvorgangs, Malvorgangs, Fotografiervorgangs oder Computerberechnungsvorgangs sagen wir 400 Pixel nebeneinander und 123 Pixel untereinander gefunden hast, die auf der Webseite erscheinen sollen - wie relevant ist dann die DPI-Zahl? Garnicht!
Die Zahl der "dots per inch" setzt voraus, dass man zuallererst mal "inch" hat. Auf einer Papiervorlage, die gescannt wird, hat man Inch. Oder Zentimeter. Egal.
Und der Scanvorgang kann dann diese Vorlage, die ja kontinuierlich verläuft, in mehr oder weniger Pixel zerlegen und digitalisieren.
Wenn du eine Website über die Microschrift auf den Euro-Geldscheinen machen willst, wirst du einen Geldschein sicherlich nicht mit 72 dpi einscannen, weil "man das für Bildschirmdarstellung so macht" (bringt ja nix, wenn ein Computerpixel unterfähr zwei Buchstaben entspricht), sondern du wirst die höchste DPI-Einstellung wählen, dafür aber nur einen kleinen Ausschnitt aus dem gesamten Geldschein, damit du eine _Vergrößerung_ auf dem Bildschirm erhälst. Mit anderen Worten: Du willst einen definierten Ausschnitt des Geldscheins in der Größe von z.B. 5x5 Millimetern auf dem Bildschirm in ansehnlicher Größe von 150x150 Pixeln darstellen.
Mal kurz rechnen, welche DPI dazu notwendig wären: 5 Millimeter sollen 150 Pixel werden. 5 mm sind 0,5 cm. 1 inch sind 2,54 cm. Also sind 0,5 cm/2,54 cm = 0,1969 inch. 150 Pixel pro 0,1969 Inch sind 762 Pixel pro Inch.
So, und nun geht es weiter. Wenn du also den Geldschein mit 762 dpi scannst (mal abgesehen davon, ob dieser Wert die Schrift überhaupt lesbar macht - ich hab irgendwelche Zahlen angenommen) und zusammen mit dieser DPI-Angabe in einer Datei speicherst, dann ist das Dokument erstmal elektronisch. Die Bildbearbeitung wird bei 100%-Zoom ein 150x150 Pixel großes Bild anzeigen.
Wenn du das Bild dann aber ausdrucken willst, dann kommen wieder die DPI-Angaben des Bildes zum Zuge und sorgen dafür, dass dein "Falschgeld-Ausschnitt" wieder genau 5x5 Millimeter groß wird.
Wenn du das Bild vergrößert ausdrucken willst, mußt du die DPI-Angabe _herabsetzen_, damit der Drucker die im Computer existierenden Pixel auf eine größere Strecke verteilt. Die halbe DPI-Zahl verdoppelt die Abmessungen auf 10x10 Millimeter, und die Angabe von 76,2 dpi würde die Abmessungen verzehnfachen auf 50x50 Millimeter. Mit anderen Worten: Würdest du die Bildschirmübliche Auflösung von 72 DPI zum Druck verwenden, wäre der 5-Millimeter-Ausschnitt plötzlich über 5 Zentimeter groß.
Für die Anzeige _am Bildschirm_ hingegen tut sich aufgrund der Änderung der DPI-Angabe absolut nichts. Es existieren ja nur 150 Pixel, die angezeigt werden können.
Deshalb: DPI-Angaben sind interessant für Scanner, welche analoge Vorlagen in die digitale Welt befördern, hinsichtlich ihres "Vergrößerungsvermögens". Je mehr dpi, desto besser kann ich feinste Strukturen auflösen.
DPI-Angaben sind weiterhin interessant für die Druckausgabe von Bilddaten. Hierbei sind sie wirklich _wichtig_, denn sie bestimmen zusammen mit den existierenden Pixeln die Ausgabegröße des Bildes.
DPI-Angaben sind absolut irrelevant, wenn die Bilddarstellung rein digital auf dem Computerbildschirm erfolgen soll.
PS: Einheitenfanatiker mögen mir die Unterlassung der Angabe von Quadratlängeneinheiten für Flächen bitte nicht krummnehmen. Natürlich existieren 5x5 Millimeter als Fläche nicht, sondern es sind mindestens 5x5 Quadratmillimeter. :)
- Sven Rautenberg
--
"Beim Stuff für's Web gibts kein Material, was sonst das Zeugs ist, aus dem die Sachen sind."
(fastix®, 13. Oktober 2003, 02:26 Uhr -> </archiv/2003/10/60137/#m338340>)