Seite 2 von 3 ErsteErste 123 LetzteLetzte
Ergebnis 11 bis 20 von 30

Thema: Können die Objektive die Auflösung der neuen 50mpx KB Sensorengeneration bedienen?

  1. #11
    Moderator Avatar von Padiej
    Registriert seit
    01.11.2007
    Ort
    Eisenstadt - Burgenland
    Alter
    53
    Beiträge
    7.831
    Bilder
    3
    Danke abgeben
    836
    Erhielt 1.360 Danke für 573 Beiträge

    Standard

    Die optische Auflösung des Ultron 2/50 von 1949 betrug bei Blende f/4 in der Bildmitte 3 my, also 165 Linienpaare pro mm ... lt. Taunusreiter

    http://www.taunusreiter.de/Cameras/B..._histo_dt.html

    Wenn ich das Minolta Makro AF 2,8/50 an die Nex 7 gebe, da gibt es im Zentrum Schärfe bis zum Pixel, und auch die Ränder kommen abgeblendet gut davon.

    Ich habe mich heute über die MTF Kurven schlau gemacht. Da wird ja das Kontrastverhalten von Mitte zum Rand mit 10 LP/mm und 30 LP/mm ermittelt, und dass in zwei Richtungen.
    Kann es sein, dass hier Kontrastverhalten bei einem standardisierten Linienabstand mit der max. Auflösung in einen Topf geschmissen werden?
    LG PETER (Freund manueller Objektive)
    Sony A7, Nex5n, Nex6, Panasonc FZ1000
    Objektive von 14mm - 500mm (auch mit Autofokus)
    www.flickr.com/photos/padiej


  2. #12
    Moderator Avatar von Padiej
    Registriert seit
    01.11.2007
    Ort
    Eisenstadt - Burgenland
    Alter
    53
    Beiträge
    7.831
    Bilder
    3
    Danke abgeben
    836
    Erhielt 1.360 Danke für 573 Beiträge

    Standard Kleiner Test mit dem Ultron:

    Carl Zeiss Ikon Ultron 1,8/50 (Baujahr ca. 1970) bei F4 an der Nex 7 - Nahgrenze :

    4000*6000 APS-C
    https://www.flickr.com/photos/padiej...02837/sizes/o/

    Da geht noch mehr.
    LG PETER (Freund manueller Objektive)
    Sony A7, Nex5n, Nex6, Panasonc FZ1000
    Objektive von 14mm - 500mm (auch mit Autofokus)
    www.flickr.com/photos/padiej


  3. 3 Benutzer sagen "Danke", Padiej :


  4. #13
    DCC Admin Avatar von klein_Adlerauge
    Registriert seit
    21.01.2014
    Ort
    Siegen
    Beiträge
    1.194
    Bilder
    27
    Danke abgeben
    1.954
    Erhielt 2.158 Danke für 509 Beiträge

    Standard

    Zitat Zitat von Padiej Beitrag anzeigen
    Carl Zeiss Ikon Ultron 1,8/50
    Da geht noch mehr.
    ... der Gedanke kam mir auch schon.

    LG,
    Heino

  5. #14
    Ist oft mit dabei
    Registriert seit
    26.04.2012
    Beiträge
    273
    Danke abgeben
    41
    Erhielt 210 Danke für 86 Beiträge

    Standard

    Zitat Zitat von hinnerker Beitrag anzeigen
    Also ich sehe da kein Problem... egal was die da "fabulieren"....

    Solange meine Objektive an meiner NEX 7 mit 24Mpix auf einem Halbformatsensor abbilden, meine EOS 5D MKII als auch meine Sony A7 aber - gemessen an der Packungsdichte der NEX 7 - nur halb soviele Pixel hat, ist für mich die Welt noch in Ordnung.
    Man soll sich nicht von den Zahlen blenden lassen (wie es wohl bei Docma der Fall ist), die 50 PMixel sind gerademal ein bisschen mehr als die doppelte Auflösung die die Canon EOS-1Ds im Jahr 2002 hatte.

    Zitat Zitat von hinnerker Beitrag anzeigen
    Eine andere Frage ist natürlich, wie gut die künftigen Objektive mit den Rändern umgehen werden.... und da liegt der Aufwand in der Realisation solcher Objektive, die auch an den Bildrändern dann nicht nur "Matsch" produzieren.
    Gut, ziemlich gut. Wenn ich mir die aktuellen Canon Zooms so ansehe, 4/16-35 IS, 2,8/24-70, 2,8/70-200 IS und 4/200-400, da haben Festbrennweiten einen schweren Stand.

    Zitat Zitat von hinnerker Beitrag anzeigen
    Auch wenn die deutsche Kameraindustrie (bis auf Leica) inzwischen "verschwunden ist", so sollte man immer noch "im Schirm" haben, das solche exzellenten Objektivhersteller wie Schneider Kreuznach, Zeiss oder Leica die Entwicklung weltweit führten und - nach meiner Ansicht auch heute noch - dominieren mit den Entwicklungen.
    Nein, die sind keineswegs besser oder schlechter als jemand in Japan, Korea oder gar China. Wenn man viel Aufwand treibt kommt was nahezu perfektes heraus, siehe
    Zeiss Otus. Aus lizenzrechtlichen Gründen (liegt wohl an Canon) werden die in Japan bei Cosina gebaut.


    Zitat Zitat von hinnerker Beitrag anzeigen
    Insofern halte ich das eigentlich für ein Märchen, dass die besseren Altgläser überfordert sein könnten... viele werden sicher auf der Strecke bleiben, aber eben längst nicht so dramatisch, wie es der verlinkte Artikel glauben machen will.
    Dem stimme ich zu. Die EOS 5Ds hat verglichen mit den APS-C Kameras von der EOS 550D - 700D gerademal einen Hauch mehr Auflösung, so um die 3 %.


    Viele Grüße

    Helmut

  6. #15
    Ist oft mit dabei
    Registriert seit
    22.04.2012
    Ort
    Leipzig
    Beiträge
    383
    Danke abgeben
    240
    Erhielt 653 Danke für 190 Beiträge

    Standard

    Zitat Zitat von Padiej Beitrag anzeigen
    Ich habe mich heute über die MTF Kurven schlau gemacht. Da wird ja das Kontrastverhalten von Mitte zum Rand mit 10 LP/mm und 30 LP/mm ermittelt, und dass in zwei Richtungen.
    Kann es sein, dass hier Kontrastverhalten bei einem standardisierten Linienabstand mit der max. Auflösung in einen Topf geschmissen werden?
    Ich habe vom den Artikel heute schon im Canon Suchtforum gelesen und wollte mich eig.zurück halten. Aber man bekommt das Gefühl als wenn ein ambitionierter Fotojornalist sich eine fachmänniche Quelle herangezogen hat um deren Aussagen zu seinen Gunsten zurechtzubiegen, so daß es auf seine "persönliche Einschätzung der Situation" auch wissenschaftlich passt. Das ist aber >zum Teil< ziemlicher Blödsinn!
    Ich hoffe das kommt jetzt nicht all zu arrogant herüber aber ich habe das große Glück, mich in meinem ersten Studiengang intensiv mit digitaler Signalverarbeitung beschäftigt zu haben, weil es primerärer Inhalt des Studiums war (auch in Verbindung mit optischen Sensoren) und mich nun im ersten Quartal meines Masterstudiums mit optischer Messtechnik vergnügen konnte. (stichwort: MTF-Messung).
    Der Artikel ist kein absoluter Blödsinn aber er vermatscht hier ganz außerordentlich mehrere Grundlagen völlig falsch miteinander.

    Ich bin sicher kein Vollprofi der schon seit 20 Jahren optische Geräte und Sensoren entwickelt aber ich weis von dem was dort beschrieben wird schon etwas mehr wie der Durchschnittsprofifotograf der den Artikel hauptsächlich lesen wird.
    So ist es zum Beispiel falsch das Oversampling-Prozesse von Bildprozessoren über seperate Pixelarrays erfolgen und selbst wenn, dann über additive Pixel die keine andere Aufgabe haben. Solche Zusatzarrays werden aber bei der Angabe der Pixelauflösung nicht mit aufgeführt. Die Pixelauflösung ist IMMER die tatsächliche erfassbare Signalbandbreite pro Fläche. Ein Sensor mit 50MP Pixelauflösung ist also in der Lage genau 50MP unabhängig voneinander zu erfassen. Ob nun additive Pixel oder eine Pulsfolge zum Oversampling führt ist dabei vollkommen gleich. Offensichtlich hat man den Einführungssatz des Wikipedia Artikels Überabgetasteter Bildsensoren übernommen und den Rest dazuphilosofiert. http://de.wikipedia.org/wiki/%C3%9Cb...sor#Der_Sensor
    Alle optischen Systeme besitzen ein beugungsbegrenztes Kontrastverhätnis das physikalisch definiert ist. Erreicht der Sensor ein Kontrastverhältnis über der Beugungsgrenze können diese redundanten Reccoucen zum Oversampling benutzt werden.

    Zur MTF:
    Sie ist eigentlich recht einfach zu erklären - ich mache dies aber mal an einem Beispiel aus der Akustik:
    1. Man stelle sich einen Sprecher in einem Saal voller Menschen vor.
    2. Man plaziert zwei Mikrophone. Eines direkt am Sprecher, das andere am Ende vom Raum und nimmt die Pegel an beiden Messpunkten auf.
    3. Der Pegel am ende des Raumes ist kleiner -> es ist also dort leiser (logisch)
    Das Signal wird also auf dem Weg vom Sender zum Empfänger gedämpft - in diesem Beispiel durch Reflektion, Absorbtion und überlagerung anderer Schallwellen der im Raum befindlichen Zuhöhrer. (es wird also mit anderen Signalen moduliert)
    4. Man teilt den gedämpften Pegel durch den ungedämpften und macht das immer seperat für jede einzelne Frequenz. -> das ergibt den Modulationsgrad [m]
    Beispiel: am Sprecher = 75dB , am Raumende = 60dB ,gemessen bei der Frequenz von 1kHz -> m=60dB/75dB = 0,8 (Einheitslos) m ist also nur ein Punkt der hier genau bei 1kHz ist
    5. Man wiederholt die Messung für alle anderen Frequenzen (20Hz-20.000Hz) ,nun hat man also sehr viele unterschiedliche Punkte.
    6. Man trägt diese in einem zweidimensionalen Koordinatensystem ein: y-Achse = m, x-Achse = Frequenz ,die Funktion die dadurch entsteht ist die Modulationstransformationsfunktion kurz MTF
    In der Akutsik wird die MTF z.B. dazu verwendet, um die Sprachverständlichkeit von Räumen zu ermitteln.

    jetzt auf die Optik bezogen:
    hier ist der Modulationsgrad m das Kontrastverhältnis zwischen dem Kontrast im Objektipunkt (also dem Kontrast eines Buchstabens einer Buchseite die ich fotografiere) und dem Kontrast des Buchstabens was hinten am Objektiv herauskommt (also auf meinen Sensor fällt). Die "Dämpfung des Signals" erfogt hier über die Abbildungsfehler meines Objektives, also Chroma, Spherische Aberrat.,Koma, Astigmatismus
    Nur messe ich hier nicht Schwingungsfrequenzen, die ich in der MTF abtrage, sondern ich messe Ortsfrequenzen ,also Linienpaaren pro Länge. Wichtig beim betrachten einer MTF Kurve im Internet ist also, darauf zu schauen ob die Linienpaare pro mm ,pro µm oder gar pro nm angegeben werden.

    Die MTF steht also in direkten Zusammenhang mit dem abbildbaren Kontranstverhältnis meines Objektives.
    Geändert von Bastl (21.02.2015 um 23:43 Uhr)

  7. 4 Benutzer sagen "Danke", Bastl :


  8. #16
    Ist oft mit dabei
    Registriert seit
    22.04.2012
    Ort
    Leipzig
    Beiträge
    383
    Danke abgeben
    240
    Erhielt 653 Danke für 190 Beiträge

    Standard

    Außerdem...
    Würde sich das bewahrheiten was in dem Artikel so verschmäht wird, wäre die Olympus OMD E-M1 und deren Objektive ein technisches Fiasko

    Canon EOS 5Ds: ~57,8 Tausend Pixel /mm²
    Olympus OMD E-M1: ~74,7 Tausend Pixel /mm²



    Zumindes im Objektivzentrum kann man mit der Olympus schon Heute eine höhere Objektivauflösung untersuchen.

  9. #17
    Moderator Avatar von Padiej
    Registriert seit
    01.11.2007
    Ort
    Eisenstadt - Burgenland
    Alter
    53
    Beiträge
    7.831
    Bilder
    3
    Danke abgeben
    836
    Erhielt 1.360 Danke für 573 Beiträge

    Standard

    Hallo Bastl!

    Kann ein Sensor, der zB 4000*4000 Pixel hat, tatsächlich 2000 Linienpaare horizontal / vertikal auflösen, wenn das Objektiv die Daten liefert?
    Geht das vom Bayer-Prinzip her?
    LG PETER (Freund manueller Objektive)
    Sony A7, Nex5n, Nex6, Panasonc FZ1000
    Objektive von 14mm - 500mm (auch mit Autofokus)
    www.flickr.com/photos/padiej


  10. #18
    Ist oft mit dabei
    Registriert seit
    22.04.2012
    Ort
    Leipzig
    Beiträge
    383
    Danke abgeben
    240
    Erhielt 653 Danke für 190 Beiträge

    Standard

    Das Bayer Prinzip hat nichts mit den maximal erfassbaren Intensitäten zu tun (weil im Grunde messen Photodioden nichts anderes als Intensitäten von Licht). Durch die Bayer Architektur weden lediglich die Farben aus den gewonnenen Intensitäten korrekt zugeteilt und berechnet.
    Eine Ausnahme gibt es aber tatsächlich und das sind Faveon Sensoren. Hier muss man die angegebene Megapixelzahl durch 3 teilen, da hier alle drei Farbaufnahmen auf einer Photodiode erfolgen (durch messung der Eindringtiefe im Silizium) Jedoch ist die angegebene Pixelanzahl von Faveon Sensoren nicht gleich der Pixelauflösung. ein 12MP Faveon hat demnach 4MP Auflösung. (Verwechlungsgefahr - das hat nichts mit Interpolation zu tun!)

  11. #19
    optikus64
    Gast

    Standard

    Hallo,

    ich werfe mal diese Tabelle in den Ring:

    Auflösungstabelle Beugungsrenze 635nm.jpg

    Entsprechend dieser Berechnung: http://de.wikipedia.org/wiki/Beugungsscheibchen

    Ergibt sich die Größe des aus geometrischen Gründen der Apertur vorgegebene minimale Strukturgröße eines Bildes ausgehend von der Abbildungs einer idealen Punktquelle.

    Jedes reale Objektiv ist schlechter, da es technisch und damit zwangsläufig fehlerbehaftet ist.

    Alles was diese Grenze nach unten unterschreitet ist verloren. Die Brennweite geht dabei NICHT ein, es geht allein um die Geometrie der Eintrittsöffnung des Objektivs (oder Fernrohrs).

    Nur zur Klärung der Beugungsgrenze.

    Für alles danach gilt das Abtasttheorem, wer sich da einlesen will, zur ersten Information:

    -> http://de.wikipedia.org/wiki/Nyquist...-Abtasttheorem

    Das ganze ist ein bisschen speziell, wenn man sich die Zeit nimmt die Sache durchzudenken aber m.E. sehr erhellens, was von dem einen oder anderen Werbespruch zu halten ist. Die "Bandgrenze" die hier angesprochen ist ist unsere "Beugungsgrenze".

    MfG

    Jörg
    Geändert von optikus64 (22.02.2015 um 23:38 Uhr)

  12. #20
    Ist oft mit dabei
    Registriert seit
    22.04.2012
    Ort
    Leipzig
    Beiträge
    383
    Danke abgeben
    240
    Erhielt 653 Danke für 190 Beiträge

    Standard

    Das hab ich damit gemeint:
    Zitat Zitat von Bastl Beitrag anzeigen
    Alle optischen Systeme besitzen ein beugungsbegrenztes Kontrastverhätnis das physikalisch definiert ist.
    Überabtastung und Unterabtastung ist eigentlich auch ganz praktisch zu erklären:
    Unterabtastung passiert wenn wir ein rollendes Autorad auf der Autobahn betrachten - wir sehen eine scheibe und können die Bewegung nicht mehr erfassen.
    Grund: das menschl.Auge kann Frequenzen von über 30Hz nicht mehr ausreichend abtasten. Sobald sich also die Kreisfrequenz des Rades über 30Hz bewegt, wird das Rad eine Scheibe.
    Hier ist auch gleich ein anderer schöner Effekt zu erwähnen. Wenn die Radkreisfrequenz etwa kurz unter 60Hz liegt, passt unsere Augen-Abtastfrequenz wieder in die Schwingung rein, nur weis unser Auge nicht das es sich nicht um eine Höhere Frequenz (ein Vielfaches von 30Hz) handelt und tastet das Bild mit max. 30Hz ab -> Effekt: Das Rad scheint sich langsamer zu Drehen, oder gar langsam Rückwärts zu drehen.

    Eine Überabtastung wäre, wenn das rad sich lansam dreht und wir entspannt noch die Strasse und die Wagenfarbe mit erfassen - das Sind Daten die mit dem Bild des Rades nichts zu tun haben und somit redundant sind (=überflüssig)

    In der Signalverarbeitung wird immer geschaut das man niemals eine Unterabtastung erzeugt und auch die Überabtastung möglichst gering zu halten, da hier unnötig viele Daten generiert werden. (mehr Daten = mehr Speicher = mehr Zeit -> schlecht)
    Es sei denn man teilt den überflüssigen "Abtastplätzen" andere Funktionen zu - und genau das wird bei Überabgetasteten Bildsensoren gemacht.

  13. Folgender Benutzer sagt "Danke", Bastl :


Seite 2 von 3 ErsteErste 123 LetzteLetzte

Ähnliche Themen

  1. Auflösung und Kontrast
    Von Peter-1 im Forum "Café Manuell" - Hier wird geplaudert..
    Antworten: 0
    Letzter Beitrag: 23.10.2021, 14:16
  2. Antworten: 2
    Letzter Beitrag: 06.03.2010, 20:38

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •