Kann ich sehr gut verstehen. Sie passen einfach von der Größe her so gut zusammen.
Gott sei Dank! ;)
Druckbare Version
Zwischenfrage zur 7 und 7r sowie einem allgemeinen Trend: Zunehmend scheinen die Kamerahersteller dazu überzugehen, den AA-Filter vorm Sensor einfach wegzulassen - zwecks verbesserter Schärfe, da es sich hier um einen optischen Tiefpassfilter handelt. Warum das? Ich bin aus der Nachrichtentechnik und kenne das Nyquist-Shannon-Kriterium:
http://de.wikipedia.org/wiki/Nyquist...-Abtasttheorem
Ein Weglassen dieses Filters bewirkt doch, dass ebendieses Abtasttheorem verletzt wird mit der Folge, dass sich bei feinen Strukturen unschöne und störende Artefakte bilden ("Perlschnüre" etc.), die auch durch Bildbearbeitung nicht rückgängigmachbar sind. Wie wollen die Kamerahersteller das in den Griff kriegen? Ich kenne nur das Prinzip beim Fuji-System durch eine raffinierte Struktur der Farbpixelanordnung. Aber sonst??
Wie soll das gut gehen? Diese Frage brennt mir schon seit längerem auf den Nägeln? Wer hat dazu weitere Infos?
Viele Grüße,
Waveguide
Ich glaube, dass die Prozessoren, die für das Bild-"Rendering" verantwortlich sind, in der Lage sind, Moirees zu erkennen.
Wenn dann die Diodeninformationen anders "verrechnet" werden, fällt das Moiree weg.
Weiß jemand, wie stark der AA-Filter bei der Sony A7 ist?
Womit dann aber der Weg des reinen RAW wohl zu Ende geht, wenn immer mehr Verrechnungs-Funktionen und damit eine Bildbearbeitung (wie ja bei der Firmware - Änderung der NEX 7 wegen der Magenta - Randproblematik schon eingeführt, in der Kamera stattfindet.
Dies hieße nämlich auch, dass letztlich die RAW Daten keine reinen RAW Daten mehr sein werden.