Diskussion aus dem Thread um die neue Canon 5Ds hierher verschoben... Der Moderator
http://www.digicamclub.de/showthread.php?t=20158
Dazu auch ein schöner Artikel mit dem Titel:
"Die 50-Megapixel-Vollformat-Lüge"
Grüße
Nils
Druckbare Version
Diskussion aus dem Thread um die neue Canon 5Ds hierher verschoben... Der Moderator
http://www.digicamclub.de/showthread.php?t=20158
Dazu auch ein schöner Artikel mit dem Titel:
"Die 50-Megapixel-Vollformat-Lüge"
Grüße
Nils
Die Argumentation in diesem Artikel habe ich so oder ähnlich schon bei Einführung der 5DMkII gelesen. Da wurde auch überall geschrieben, die Objektive würden solch einen Sensor doch gar nicht bedienen können. De Facto hat sich herausgestellt, dass die 5DII eher zu den "gutmütigen" Kameras gehört. Bei deren "großen" Pixeln sieht man (logischerweise) manche Schärfeprobleme nicht so, wie auf vielen kleineren Sensoren mit ähnlicher Megapixelzahl. Es gab dann später sogar Stimmen die meinten, die 5DMkII sei für die Beurteilung der (zentralen) Schärfeleistung einer Optik gar nicht sonderlich geeignet. Weil an dieser Kamera fast alles "irgendwie" scharf zu bekommen wäre. Naja, letzters wird man über die 5Ds wohl nicht mehr sagen...
Ich glaube schon, dass viele jetzt schon existierende Objektive, auch Altgläser, die 50MP bedienen werden können. Sicherlich trennt sich dann etwas stärker die Spreu vom Weizen. Was die 50MP mitbringen werden, ist eine Anpassung der Arbeitsweise. Die gute alte Regel für das Fotografieren aus der Hand Belichtungszeit 1/Brennweite oder kürzer war mit der 5DMkII bei einem ruhigen Händchen noch so grade realisierbar, das wird dann aber endgültig nichts mehr werden. Da ist es dann schade, dass die ISO-Reserven der 5Ds wegen der kleinen Pixel (mutmaßlich) nicht sehr viel mehr Spielraum geben werden. Wenn ich mir daher meine Art der Fotografie so ansehe (selten mit Stativ, oft in "dunklen Ecken"), dann tendiere ich inzwischen eher zu einer 5DMkIV, die hoffentlich irgendwo bei 36 bis 40 MP ankommt und dafür noch einen ISO-Step draufpackt, bei vergleichbarer Qualität. Zumindest wäre das er "universellere" Body von Canon für mich - wenn es denn so kommt.
LG,
Heino
Ich sehe schon einen Vorteil, und zwar diesen, dass man beim Zusammenfassen von Pixel-Vierergruppen exakt die Farbe des erfassten Lichtstrahls auf diese Gruppe ermitteln kann.
Jegliche errechnete, interpolierte bzw. aufgrund der Nachbarpixeldaten erhobene Pixelfarbe (aufgrund des Bayersensors grün/grün/rot/blau) wird so zu 100% eliminiert.
Bei 50 MP erhalte ich so ein "foveonanaloges" Bild mit 12,5 MP.
Der große Vorteil ist jedoch die High-Iso Fähigkeit, die so einer Pixelfusion zugeschrieben werden kann, und wo der Foveon leider scheitert.
Die Vierergruppen haben einen Kantenlänge von 8,28 Mikrometern, und die werden von den Objektiven, die angeblich bis 6 Mikrometer funktionieren, bestens bedient.
Das mehr an Pixeln bringt eine klarere Differenzierung der Farben bei der Reduktion.
Toll wäre es, wenn so eine Funktion direkt in der Kamera anwählbar wäre. Mit einen "inteligenten" Algorithmus, der krassen Ausreißern innerhalb der 4-er Gruppe bei der Interpolation weniger Gewicht gibt (Es sei denn, die benachbaren Pixel aus anderen 4-er Paketen bestätigen mehrheitlich diesen Wert). Gibt´s eine Software, die das kann? Notfalls kann man so etwas auch selbst programmieren, dürfte nicht zu schwierig sein.
LG,
Heino
Genau die Frage habe ich mir auch gestellt.
Welche der L Gläser werden einem 50MP Sensor gerecht?
Die höchste Auflösung bei Canon hat das 180er Makro. Das Objektiv soll bei 25-26 MP an seine Grenzen kommen.
Leider finde ich den Test nicht mehr im Web, glaube aber das ich es bei Traumflieger gelesen habe.
Ich werde demnächst mal bei Foto Huppert vorbei schauen und wenn ich darf mal ein paar Testbilder mit der
5Ds und dem 180er machen. Mal sehen was dabei raus kommt.
Ed.
Das Alter der Konstruktion wird man am 50MP Sensor der 5Ds sicher so manchen L Objektiven dann anmerken... Aber gerade die neueren Rechnungen werden zumeist die Auflösung bedienen können. Es ist auch nicht anders zu erwarten. Man stelle sich den Imageverlust vor, wenn einer der führenden DSLR-Vollsortimentler einen Body bringt und dann keines der eigenen Objektive dem Gerecht wird. Die würden ja in der Luft zerrissen... Nein, das tut sich Canon mit Sicherheit nicht an. Die bringen die 5Ds nur, weil sie genau wissen, dass der Großteil der neueren L Objektive das auch leisten kann.
LG,
Heino
Ich hatte ja etwas weiter oben in diesem Thread schon geschrieben, dass ich denke, dass einige Objektive 50 MPix bedienen können. Aber dieser Docma-Artikel macht mich jetzt doch etwas nachdenklich. Eigentlich war ich immer der Ansicht, dass die Jungs von Docma und DxO, auf die in dem Artikel Bezug genommen wird, wissen wovon sie reden. Ich denke jedenfalls nochmal darüber nach, ob ich mehr als 24 MPix wirklich brauche ;).
Also ich sehe da kein Problem... egal was die da "fabulieren"....
Solange meine Objektive an meiner NEX 7 mit 24Mpix auf einem Halbformatsensor abbilden, meine EOS 5D MKII als auch meine Sony A7 aber - gemessen an der Packungsdichte der NEX 7 - nur halb soviele Pixel hat, ist für mich die Welt noch in Ordnung.
Im Grunde passiert bei einer 5Ds oder einer evenutuelle Sony A9 ja nur eines.... gedanklich eben zwei Halbformatsensoren auf dem Wafer/Chip zu realisieren - nur im Hochformat 24mm und 2 x 18mm um die 36mm Kantenlänge des Sensors zu haben.
Eine andere Frage ist natürlich, wie gut die künftigen Objektive mit den Rändern umgehen werden.... und da liegt der Aufwand in der Realisation solcher Objektive, die auch an den Bildrändern dann nicht nur "Matsch" produzieren.
Wenn ich mir aber mein gerade vorgestelltes SCHNEIDER KREUZNACH DIGITAR ansehe, so gehört das mit Sicherheit schon in die Gruppe, die das schaffen werden, denn am KB Sensor ist das Ding auch an den Rändern knackenscharf, ebenso wie ein altes Zeiss Planar 2/45mm zur Contax G...
Das dies unter Umständen technologisch nur von hochpreisigen Objektivherstellern vollbracht werden kann... und damit entsprechend teuer wird, steht natürlich auf einem anderen Blatt.
Auch wenn die deutsche Kameraindustrie (bis auf Leica) inzwischen "verschwunden ist", so sollte man immer noch "im Schirm" haben, das solche exzellenten Objektivhersteller wie Schneider Kreuznach, Zeiss oder Leica die Entwicklung weltweit führten und - nach meiner Ansicht auch heute noch - dominieren mit den Entwicklungen.
Das an den 50Mpix Boliden das meiste Altglas - zumal die billige "Durchschnitts-Ware" aus alten Tagen damit an das Ende der Möglichkeiten kommt, erscheint mir hingegen logisch.
Da werden bei den 50 Mpix Kameras sicherlich nur die besten der Altgläser "noch taugen"...
Aber auch die sind ja schon von vielen in die Zukunft blickenden, die gleich auf hochwertigste Objektive gesetzt haben, so vom Gebrauchtmarkt in feste Hände überführt worden, dass man sich dann bei den 0815 Objektiven alter Zeiten getrost darauf einstellen kann, das 24Mpix für diese Objektive besser sein werden.
Ein Olympus Zuiko 2/90er oder ein Tokina AT-X 2.5/90er und ähnliche Kaliber im inzwischen hochpreisigen Segment werden sicherlich keine Einschränkungen erfahren, denn bereits am Cropsensor der Sony NEX7 konnte man die gewaltige Auflösungsfähigkeit ja bewundern.
Insofern halte ich das eigentlich für ein Märchen, dass die besseren Altgläser überfordert sein könnten... viele werden sicher auf der Strecke bleiben, aber eben längst nicht so dramatisch, wie es der verlinkte Artikel glauben machen will.
LG
Henry
Danke für die Aufklärung.
Stimmt, betrachtet man sich die Dichte allein in der Nex-7, ist es nur eine kleine Rechenaufgabe, dass die guten Gläser dann auch für 50 MP taugen werden.
Grüße
Nils
Die optische Auflösung des Ultron 2/50 von 1949 betrug bei Blende f/4 in der Bildmitte 3 my, also 165 Linienpaare pro mm ... lt. Taunusreiter
http://www.taunusreiter.de/Cameras/B..._histo_dt.html
Wenn ich das Minolta Makro AF 2,8/50 an die Nex 7 gebe, da gibt es im Zentrum Schärfe bis zum Pixel, und auch die Ränder kommen abgeblendet gut davon.
Ich habe mich heute über die MTF Kurven schlau gemacht. Da wird ja das Kontrastverhalten von Mitte zum Rand mit 10 LP/mm und 30 LP/mm ermittelt, und dass in zwei Richtungen.
Kann es sein, dass hier Kontrastverhalten bei einem standardisierten Linienabstand mit der max. Auflösung in einen Topf geschmissen werden?
Carl Zeiss Ikon Ultron 1,8/50 (Baujahr ca. 1970) bei F4 an der Nex 7 - Nahgrenze :
4000*6000 APS-C
https://www.flickr.com/photos/padiej...02837/sizes/o/
Da geht noch mehr.
Man soll sich nicht von den Zahlen blenden lassen (wie es wohl bei Docma der Fall ist), die 50 PMixel sind gerademal ein bisschen mehr als die doppelte Auflösung die die Canon EOS-1Ds im Jahr 2002 hatte.
Gut, ziemlich gut. Wenn ich mir die aktuellen Canon Zooms so ansehe, 4/16-35 IS, 2,8/24-70, 2,8/70-200 IS und 4/200-400, da haben Festbrennweiten einen schweren Stand.
Nein, die sind keineswegs besser oder schlechter als jemand in Japan, Korea oder gar China. Wenn man viel Aufwand treibt kommt was nahezu perfektes heraus, siehe
Zeiss Otus. Aus lizenzrechtlichen Gründen (liegt wohl an Canon) werden die in Japan bei Cosina gebaut.
Dem stimme ich zu. Die EOS 5Ds hat verglichen mit den APS-C Kameras von der EOS 550D - 700D gerademal einen Hauch mehr Auflösung, so um die 3 %.
Viele Grüße
Helmut
Ich habe vom den Artikel heute schon im Canon Suchtforum gelesen und wollte mich eig.zurück halten. Aber man bekommt das Gefühl als wenn ein ambitionierter Fotojornalist sich eine fachmänniche Quelle herangezogen hat um deren Aussagen zu seinen Gunsten zurechtzubiegen, so daß es auf seine "persönliche Einschätzung der Situation" auch wissenschaftlich passt. Das ist aber >zum Teil< ziemlicher Blödsinn!
Ich hoffe das kommt jetzt nicht all zu arrogant herüber aber ich habe das große Glück, mich in meinem ersten Studiengang intensiv mit digitaler Signalverarbeitung beschäftigt zu haben, weil es primerärer Inhalt des Studiums war (auch in Verbindung mit optischen Sensoren) und mich nun im ersten Quartal meines Masterstudiums mit optischer Messtechnik vergnügen konnte. (stichwort: MTF-Messung).
Der Artikel ist kein absoluter Blödsinn aber er vermatscht hier ganz außerordentlich mehrere Grundlagen völlig falsch miteinander.
Ich bin sicher kein Vollprofi der schon seit 20 Jahren optische Geräte und Sensoren entwickelt aber ich weis von dem was dort beschrieben wird schon etwas mehr wie der Durchschnittsprofifotograf der den Artikel hauptsächlich lesen wird.
So ist es zum Beispiel falsch das Oversampling-Prozesse von Bildprozessoren über seperate Pixelarrays erfolgen und selbst wenn, dann über additive Pixel die keine andere Aufgabe haben. Solche Zusatzarrays werden aber bei der Angabe der Pixelauflösung nicht mit aufgeführt. Die Pixelauflösung ist IMMER die tatsächliche erfassbare Signalbandbreite pro Fläche. Ein Sensor mit 50MP Pixelauflösung ist also in der Lage genau 50MP unabhängig voneinander zu erfassen. Ob nun additive Pixel oder eine Pulsfolge zum Oversampling führt ist dabei vollkommen gleich. Offensichtlich hat man den Einführungssatz des Wikipedia Artikels Überabgetasteter Bildsensoren übernommen und den Rest dazuphilosofiert. http://de.wikipedia.org/wiki/%C3%9Cb...sor#Der_Sensor
Alle optischen Systeme besitzen ein beugungsbegrenztes Kontrastverhätnis das physikalisch definiert ist. Erreicht der Sensor ein Kontrastverhältnis über der Beugungsgrenze können diese redundanten Reccoucen zum Oversampling benutzt werden.
Zur MTF:
Sie ist eigentlich recht einfach zu erklären - ich mache dies aber mal an einem Beispiel aus der Akustik:
1. Man stelle sich einen Sprecher in einem Saal voller Menschen vor.
2. Man plaziert zwei Mikrophone. Eines direkt am Sprecher, das andere am Ende vom Raum und nimmt die Pegel an beiden Messpunkten auf.
3. Der Pegel am ende des Raumes ist kleiner -> es ist also dort leiser (logisch)
Das Signal wird also auf dem Weg vom Sender zum Empfänger gedämpft - in diesem Beispiel durch Reflektion, Absorbtion und überlagerung anderer Schallwellen der im Raum befindlichen Zuhöhrer. (es wird also mit anderen Signalen moduliert)
4. Man teilt den gedämpften Pegel durch den ungedämpften und macht das immer seperat für jede einzelne Frequenz. -> das ergibt den Modulationsgrad [m]
Beispiel: am Sprecher = 75dB , am Raumende = 60dB ,gemessen bei der Frequenz von 1kHz -> m=60dB/75dB = 0,8 (Einheitslos) m ist also nur ein Punkt der hier genau bei 1kHz ist
5. Man wiederholt die Messung für alle anderen Frequenzen (20Hz-20.000Hz) ,nun hat man also sehr viele unterschiedliche Punkte.
6. Man trägt diese in einem zweidimensionalen Koordinatensystem ein: y-Achse = m, x-Achse = Frequenz ,die Funktion die dadurch entsteht ist die Modulationstransformationsfunktion kurz MTF
In der Akutsik wird die MTF z.B. dazu verwendet, um die Sprachverständlichkeit von Räumen zu ermitteln.
jetzt auf die Optik bezogen:
hier ist der Modulationsgrad m das Kontrastverhältnis zwischen dem Kontrast im Objektipunkt (also dem Kontrast eines Buchstabens einer Buchseite die ich fotografiere) und dem Kontrast des Buchstabens was hinten am Objektiv herauskommt (also auf meinen Sensor fällt). Die "Dämpfung des Signals" erfogt hier über die Abbildungsfehler meines Objektives, also Chroma, Spherische Aberrat.,Koma, Astigmatismus
Nur messe ich hier nicht Schwingungsfrequenzen, die ich in der MTF abtrage, sondern ich messe Ortsfrequenzen ,also Linienpaaren pro Länge. Wichtig beim betrachten einer MTF Kurve im Internet ist also, darauf zu schauen ob die Linienpaare pro mm ,pro µm oder gar pro nm angegeben werden.
Die MTF steht also in direkten Zusammenhang mit dem abbildbaren Kontranstverhältnis meines Objektives.
Außerdem...
Würde sich das bewahrheiten was in dem Artikel so verschmäht wird, wäre die Olympus OMD E-M1 und deren Objektive ein technisches Fiasko
Canon EOS 5Ds: ~57,8 Tausend Pixel /mm²
Olympus OMD E-M1: ~74,7 Tausend Pixel /mm²
;)
Zumindes im Objektivzentrum kann man mit der Olympus schon Heute eine höhere Objektivauflösung untersuchen.
Hallo Bastl!
Kann ein Sensor, der zB 4000*4000 Pixel hat, tatsächlich 2000 Linienpaare horizontal / vertikal auflösen, wenn das Objektiv die Daten liefert?
Geht das vom Bayer-Prinzip her?
Das Bayer Prinzip hat nichts mit den maximal erfassbaren Intensitäten zu tun (weil im Grunde messen Photodioden nichts anderes als Intensitäten von Licht). Durch die Bayer Architektur weden lediglich die Farben aus den gewonnenen Intensitäten korrekt zugeteilt und berechnet.
Eine Ausnahme gibt es aber tatsächlich und das sind Faveon Sensoren. Hier muss man die angegebene Megapixelzahl durch 3 teilen, da hier alle drei Farbaufnahmen auf einer Photodiode erfolgen (durch messung der Eindringtiefe im Silizium) Jedoch ist die angegebene Pixelanzahl von Faveon Sensoren nicht gleich der Pixelauflösung. ein 12MP Faveon hat demnach 4MP Auflösung. (Verwechlungsgefahr - das hat nichts mit Interpolation zu tun!)
Hallo,
ich werfe mal diese Tabelle in den Ring:
Anhang 41403
Entsprechend dieser Berechnung: http://de.wikipedia.org/wiki/Beugungsscheibchen
Ergibt sich die Größe des aus geometrischen Gründen der Apertur vorgegebene minimale Strukturgröße eines Bildes ausgehend von der Abbildungs einer idealen Punktquelle.
Jedes reale Objektiv ist schlechter, da es technisch und damit zwangsläufig fehlerbehaftet ist.
Alles was diese Grenze nach unten unterschreitet ist verloren. Die Brennweite geht dabei NICHT ein, es geht allein um die Geometrie der Eintrittsöffnung des Objektivs (oder Fernrohrs).
Nur zur Klärung der Beugungsgrenze.
Für alles danach gilt das Abtasttheorem, wer sich da einlesen will, zur ersten Information:
-> http://de.wikipedia.org/wiki/Nyquist...-Abtasttheorem
Das ganze ist ein bisschen speziell, wenn man sich die Zeit nimmt die Sache durchzudenken aber m.E. sehr erhellens, was von dem einen oder anderen Werbespruch zu halten ist. Die "Bandgrenze" die hier angesprochen ist ist unsere "Beugungsgrenze".
MfG
Jörg
Das hab ich damit gemeint:
Überabtastung und Unterabtastung ist eigentlich auch ganz praktisch zu erklären:
Unterabtastung passiert wenn wir ein rollendes Autorad auf der Autobahn betrachten - wir sehen eine scheibe und können die Bewegung nicht mehr erfassen.
Grund: das menschl.Auge kann Frequenzen von über 30Hz nicht mehr ausreichend abtasten. Sobald sich also die Kreisfrequenz des Rades über 30Hz bewegt, wird das Rad eine Scheibe.
Hier ist auch gleich ein anderer schöner Effekt zu erwähnen. Wenn die Radkreisfrequenz etwa kurz unter 60Hz liegt, passt unsere Augen-Abtastfrequenz wieder in die Schwingung rein, nur weis unser Auge nicht das es sich nicht um eine Höhere Frequenz (ein Vielfaches von 30Hz) handelt und tastet das Bild mit max. 30Hz ab -> Effekt: Das Rad scheint sich langsamer zu Drehen, oder gar langsam Rückwärts zu drehen.
Eine Überabtastung wäre, wenn das rad sich lansam dreht und wir entspannt noch die Strasse und die Wagenfarbe mit erfassen - das Sind Daten die mit dem Bild des Rades nichts zu tun haben und somit redundant sind (=überflüssig)
In der Signalverarbeitung wird immer geschaut das man niemals eine Unterabtastung erzeugt und auch die Überabtastung möglichst gering zu halten, da hier unnötig viele Daten generiert werden. (mehr Daten = mehr Speicher = mehr Zeit -> schlecht)
Es sei denn man teilt den überflüssigen "Abtastplätzen" andere Funktionen zu - und genau das wird bei Überabgetasteten Bildsensoren gemacht.
Genau. Genau so werden auch die MTF Messungen durchgeführt.
Die Firma Trioptics in Hamburg baut beispielsweise sehr gute MTF Mess-Systeme. Mit einem davon hab ich in den vergangenen Monaten auch arbeiten können.
Auf ihrer Internetseite haben sie auch eine kleine Knowledgebase mit Diagrammen und Erklärungen:
http://www.trioptics.com/de/knowledg...ungsqualitaet/
Die Beugungsscheibchen wirken ja auch inneinander. Je feiner ich diese in sich vermischten Scheibchen erfassen kann, umso besser erkenne ich deren Grenzen und Übergänge.
Wenn ich diese weicheren Übergänge dann nachschärfe, sollte ich ja ein wenig gegen die Beugungsunschärfe angehen können.
Oder sehe ich das falsch.
Ich bleib bei meinen 12 MP max. Resolution :blah:
Ich denke, die haben damals gerade noch etwas zwischen Hellgrau und Dunkelgrau erkennen können, bei diesen Untersuchungen.
Denn da wirkt ja schon , wenn es z.B. F4 war (bei dem Ultron Test, den Taunusreiter zitiert) die Beugung mit.
Auf jeden Fall Danke für die Informationen. Es ist ja nicht mehr so einfach, wenn man einmal über Zwanzig ist, neue Zusammenhänge zu verstehen.
Sind die MTF Digaramme der verschiedenen Hersteller überhaupt vergleichbar? Sind die genormt?
Ja, die ISO 15529:2010
Die MTF ansich ist ja physikalisch klar definiert. "Gemessen" wird die Punktbildverwaschungsfunktion PSF ,von ihr dann zur Optischen Transferfunktion OTF mittels Fouriertransformation transformiert. Der Betrag der OTF ist die MTF.
Außerdem ist zu beachten das es bei einer seriösen Messung immer zwei Messungen geben muss, einmal für die Sagitalebene und einmal für die Meridialebene. Das ist wichtig, da man sonst Koma und Astigmatismus nicht erfassen könnte, diese sind nämlich nicht rotationssymmetrisch.
P.S. Ich bin auch schon Ü30 :peace:
Ich wundere mich immer wieder, wenn große Menschen Jahrgang 2000 sind. Da merke ich dann, wie die Zeit rennt. http://www.digicamclub.de/images/icons/icon7.png
Vor allem in der Fotografie gibt es so viel zu lernen, zu erleben, zu erfassen, da will ich gar nicht altern. http://www.digicamclub.de/images/icons/icon9.png
Beugung - hat nichts mit der Lichtbrechnung an Kanten zu tun, habe ich gerade gelesen. Sondern mit fehlender Bildinformation durch die Blendeneinschnürung.
Fehlende Konkurrenz alternativer Ausbreitungswege - auch der Grund, warum dann Dreck und Kratzer sichbar werden.
http://de.wikipedia.org/wiki/Beugungsunsch%C3%A4rfe
Es entsteht immer ein Bild überlagerter Beugungsscheibchen. Je kleiner die Blendenöffnung (bzw. je größer der Blendenwert), umso größer werden die Scheiben, umso mehr werden klare Strukturen verwaschener.
Die vorschnelle Schlussfolgerung, dass man Pixelgröße an Beugungsscheibchengröße angleichen kann, weil kleinere Pixel nichts bringen, kann ich nicht machen, weil eben diese Scheiben ineinander verschachtelt sind.
Diese Verschachtelung bzw. Überlagerung beinhaltet auch Informationen, aber es ist klar, die Schärfe geht verloren, wenn ich die Blende zudrehe.
Bei F8 sehe ich diesen Effekt noch nicht bei meinen Kameras, auch nicht bei der kleinen LX7. Ich glaube aber, die sensorinterne Nachbearbeitung spielt da auch eine große Rolle.
Dass das kameraintern funktioniert bezweifle ich, denn die Hotpixel die bei längeren
Belichtungszeiten bei S-RAW oder M-RAW sichtbar werden sprechen dagegen.
Zudem sind RAW und M-RAW oder S-RAW Bilder nicht deckungsgleich, das RAW-
Bild zeigt immer etwas mehr Bild.
Viele Grüße
Helmut
Ich muss zugeben das ich die mathematische Grundlage von Beugung auch noch nicht zu 100% durchdrungen hab. Das ist nicht ganz so einfach. Ich bin mir auch nicht ganz so sicher ob der Satz auf Wikipedia so korrekt gewählt ist. Denn die Interferentmuster die durch Beugung entstehen haben sehr wohl etwas mit der Wellencharakteristik von Licht und dessen Ablenkung an Hindernissen zu tun. Ich denke der Satz ist trotzem nicht falsch, er wird aus der theoretischen Wellenphysik stammen. Da gibt es manchmal Unterschiede zur technischen Physik. In der techn. Physik werden Vorgänge in Hilfsmodellen und Näherungsformeln teilweise vereinfacht betrachtet, in der theoretischen Physik wird alles heruntergebrochen bis hin zu den strukturellen Interaktionen der Atome (und noch tiefer - siehe Bern).
Aber wie gesagt, Beugung ist nicht ganz ohne wenn man sie über das Abiturlevel hinaus beschreiben muss.
Ich habe hier ein schönes Skript der Uni Oldenburg zu dem Thema Beugung, Inteferenz und optischer Auflösung:
http://www.uni-oldenburg.de/fileadmi...er_Fresnel.pdf
Und auch hier noch ein fast komplettes Buch über Optik mit sehr verständlicher Schreibweise und fantastischen Diagrammen:
Kap. 1: http://www.wmi.badw.de/teaching/Lect..._III_Kap_1.pdf
Kap. 2: http://www.wmi.badw.de/teaching/Lect..._III_Kap_2.pdf
Kap. 3: http://www.wmi.badw.de/teaching/Lect..._III_Kap_3.pdf
Kap. 4: http://www.wmi.badw.de/teaching/Lect..._III_Kap_4.pdf
Kap. 5: http://www.wmi.badw.de/teaching/Lect..._III_Kap_5.pdf
Kap. 6: http://www.wmi.badw.de/teaching/Lect..._III_Kap_6.pdf
Kap. 7: http://www.wmi.badw.de/teaching/Lect..._III_Kap_7.pdf
Kap. 8: http://www.wmi.badw.de/teaching/Lect..._III_Kap_8.pdf
Kap. 9: http://www.wmi.badw.de/teaching/Lect..._III_Kap_9.pdf
Kap. 10:http://www.wmi.badw.de/teaching/Lect...III_Kap_10.pdf
Kap. 11:http://www.wmi.badw.de/teaching/Lect...III_Kap_11.pdf
Kap. 12:http://www.wmi.badw.de/teaching/Lect...III_Kap_12.pdf
Anhang:http://www.wmi.badw.de/teaching/Lect...I_Anhang_1.pdf
An die Admins eine Frage: Das "verlinken" von öffentlich zugänglichen Material aus dem Internet ist nach §19a UrhG erlaubt. Nur weis niemand wie lange es dort zugänglich sein wird. In wissenschaftlichen Arbeiten ist es demnach vorgegeben den genauen Aufrufzeitpunkt anzugeben. Wäre es auch möglich die unter einem Link erhältlichen Daten unter Angabe des Abrufzeitpunktes direkt ins Forum einzubinden (herunterladen - ins Forum hochladen). Ich bin mir nicht sicher ob genau das eine Verletzung des UrhG wäre, deswegen habe ich es so gemacht.