cm im Browserfenster
michat
- css
0 ChrisB0 Der Martin0 michat
0 MudGuard
Hi
Zwecks Verständigung über verwendete Schriftgrößen in einem A2 Poster habe ich dies mit 96dpi und 50%-iger Qualität abgespeichert und folgenden Seitenquelltext erstellt (die Seite dient nur temporärdem genannten Zweck):
<!DOCTYPE html>
<html>
<head>
<meta charset="utf-8" />
<title>Test-Poster A2</title>
<style type="text/css">
<!--
body { background-color: grey; }
img { width: 42cm; height: 59.4cm; }
-->
</style>
</head>
<body>
<img src="/img/poster_a2.png" alt="Test-Poster A2" />
</body>
</html>
Meine Hoffnung war, dass mit derart festgezurrten Angaben Browser in der Lage wären Abmessungen mit besserer Qualität hinbekämen als das offensichtlich der Fall ist. Zumindest bei mir werden auf dem Bildschirm aus den 42 cm Breite des Quelltextes 45 cm. Die Höhe kann ich nicht so ohne weiteres am Bildschirm messen, ist aber auch egal, wird schon proportional in ähnlicher Größenordnung liegen.
Klar, einen Browser kann man nicht auf einen Bildschirm kalibrieren, und die Verständigung zwischen TFT, Graka-Treiber und X-Server wird ihre eigenen Probleme haben.
Kurz: Besser als mit der genannten Abweichung bekommt man das nicht hin?
bye
MH
Hi,
Kurz: Besser als mit der genannten Abweichung bekommt man das nicht hin?
Sofern du dich nicht auf @media="print" beschränken willst, sieht es eher schlecht aus fürchte ich.
MfG ChrisB
Hallo,
Kurz: Besser als mit der genannten Abweichung bekommt man das nicht hin?
nein, weil der Browser keinen blassen Schimmer hat, wie groß denn der angeschlossene Bildschirm wirklich ist. Das weiß nicht einmal der Grafikkartentreiber, auch der muss raten oder von üblichen Defaultwerten ausgehen. Denn z.B. Full-HD-Bildschirme gibt's von etwa 22" aufwärts in fast jeder Größe. Und bei kleinen Auflösungen sieht's nicht besser aus - 1024x768 kenne ich in Größen von 8" bis etwa 17". Von den Displays bei Mobilgeräten will ich gar nicht reden.
Bei den meisten GUIs kann man irgendwo ganz tief in den Einstellungen auch festlegen, wieviel DPI der angeschlossene Bildschirm hat, so dass man auf diese Weise eine Kalibrierung hinbekommen könnte.
Aber wer weiß das? Wer macht das tatsächlich? Wem ist das wichtig genug?
So long,
Martin
Bei den meisten GUIs kann man irgendwo ganz tief in den Einstellungen auch festlegen, wieviel DPI der angeschlossene Bildschirm hat, so dass man auf diese Weise eine Kalibrierung hinbekommen könnte.
Naja, das genau ist ja eigentlich die Frage. Wenn ich für einen Desktop 96 DPI festlege, dann wäre es natürlich schön wenn I = inch als absolute Einheit wirken würde und es nicht defact relative inch gäbe. Was sagt denn dann 96 aus wenn inch plötzlich relativ ist.
Unter Debian gibt es ja xrandr, nur ob damit tatsächlich der monitor mit dem X-server in eindurch absolute maßeinheiten definiertes Verhältnis gesetz werden kann ist mir noch nicht klar ... und ob es mir das wert ist mich da durchzufrickeln, ist die andere Frage. Eigentlich ist ja per Monitor klar wieviele Pixel er darstellt und wie breit und hoch er ist. Und das steht ja in einem direkten Verhältnis zur wie auch immer virtuellen internen Auflösung des Betriebssystems.
Naja, is halt nicht so ohne Weiteres in den Griff zu bekommen.
MH
Hallo,
Bei den meisten GUIs kann man irgendwo ganz tief in den Einstellungen auch festlegen, wieviel DPI der angeschlossene Bildschirm hat, so dass man auf diese Weise eine Kalibrierung hinbekommen könnte.
Naja, das genau ist ja eigentlich die Frage. Wenn ich für einen Desktop 96 DPI festlege, dann wäre es natürlich schön wenn I = inch als absolute Einheit wirken würde und es nicht defact relative inch gäbe. Was sagt denn dann 96 aus wenn inch plötzlich relativ ist.
das war ja ursprünglich genau die Idee, die tatsächliche Auflösung des Monitors dem Grafiktreiber mitzuteilen. Bei Röhrenmonitoren war das aber völlig unsinnig, weil die keine fest vorgegebene "eigene" Auflösung haben. Bei LCD-Bildschirmen galt jahrelang ein horizontaler und vertikaler Pixelabstand (Pitch) von 0.264mm als typisches Maß, das sind gerade die berühmten 96 Pixel pro Zoll oder dots per inch. Deswegen wurden diese 96dpi auch meistens als Defaultwert in den Treibern eingetragen. Wenn aber ein Anwender einen Bildschirm hat/hatte, dessen Pitch deutlich davon abweicht, stimmt natürlich alle Rechnerei nicht mehr.
Unter Debian gibt es ja xrandr
Das gibt's nicht nur unter Debian, und mir wäre neu, dass man damit den Pitch kalibrieren könnte. Das Tool erlaubt die Einstellung der Gesamt-Auflösung und Bildwiederholfrequenz, die Auswahl der Anschlüsse, falls die Grafikkarte mehrere bietet, und die relative Position mehrerer Monitore zueinander.
Eigentlich ist ja per Monitor klar wieviele Pixel er darstellt und wie breit und hoch er ist. Und das steht ja in einem direkten Verhältnis zur wie auch immer virtuellen internen Auflösung des Betriebssystems.
Ja, das ist sozusagen eine Gerätekonstante. Und die müsste man als Nutzer eigentlich im Grafiktreiber eintragen, sobald man einen neuen Monitor anschließt. Aber wie gesagt: Wer macht das?
Normalerweise ist es den Nutzern sch... äh, relativ egal, ob die Abbildung eines A4-Blattes am Bildschirm wirklich 210mm breit ist, oder vielleicht nur 192mm, oder doch eher 233mm.
Naja, is halt nicht so ohne Weiteres in den Griff zu bekommen.
So sehe ich das auch.
Ciao,
Martin
Hi,
Meine Hoffnung war, dass mit derart festgezurrten Angaben Browser in der Lage wären Abmessungen mit besserer Qualität hinbekämen als das offensichtlich der Fall ist.
Wie soll der Browser wissen, wie groß das Bild tatsächlich dargestellt wird?
Man kann ja z.B. statt eines Bildschirms auch einen Beamer angeschlossen haben - da hängt die tatsächliche Größe von der Entfernung Beamer <-> Leinwand ab - und die ist dem Browser nicht bekannt.
Oder zwei Monitore unterschiedlicher Größe, die beide gleichzeitig dieselben Daten von der Graphikkarte darstellen.
Oder ...
cu,
Andreas