folgender Link ist mir gerade über den Weg gelaufen:
http://www.fotointern.ch/archiv/2011...ich-bestimmen/
Müssen wir also in Zukunft nicht mehr fokussieren?
Gruß Gerhard
Druckbare Version
folgender Link ist mir gerade über den Weg gelaufen:
http://www.fotointern.ch/archiv/2011...ich-bestimmen/
Müssen wir also in Zukunft nicht mehr fokussieren?
Gruß Gerhard
Bildteile nachträglich in die Unschärfe bringen, dass geht ja auch mit einfachen Bearbeitungsprogrammen, sogar verlaufend.
Klar, die 3D-Info bringt viele Vorteile, da sich der Rechner auf diese Daten aufhängen kann.
Ich sehe aber keinen Vorteil für einen passionierten Fotografen.
Diese Technik ist wie Sportschießen mit Lenkmunition, die exakt ins Ziel fliegt.
Gerade die Unschärfe, die durch eine Optik erzeugt wird, ist ja etwas besonderes.
Könnte gut sein...
Naja, irgendwie kocht das Thema gerade gewaltig hoch.
Eine Firma mach unklare Ankündigungen, dass sie ich glaub noch dieses Jahr eine Consumer-Kamera mit dem Verfahren rausbingen wollen, und das verbreitet sich schnell im Netz. Ob die Firma wohl ne Aktiengesellschaft ist, oder verkauft werden soll?
Mir ist da noch viel zu wenig Substanz dahinter.
Vor paar Jahren wurde bei der Technik aus nem 16 Megapixel Sensor (4000x4000) ein 300x300 Pixel Array mit Entfernungsinformation, also ein recht starker Verlust an Auflösung. Klar kann der technische Fortschritt, und noch mehr Rechnerei dabei durchaus einiges verbessern. Aber ich glaub nicht dran das da was für uns interessantes bei rauskommt.
Es gibt sicher Leute die mit 6 auch zufrieden sein können. Aber wenn man dann auch nur optimisitsche 10 Pixel anstatt den anfänglichen 177 Pixeln für ein Bildelement mit Entfernungsinformation genutzt werden, müßte der Grundsensor 60 Megapixel haben. Wenn er die gleich Machart wie eins der frühen Muster haben sollte, wären es 1 Gigapixel an geforderter Grundauflösung.
Ob und wie Beugung da dann wieder rausgerechnet wird, oder gar kein Problem macht, hab ich mir noch keinen Kopf gemacht. Und wie es mit dem Rauschen aussehen würde auch nicht.
Die speziellen Pixelarrays könnten bei den Kameras eventuell ein zusätzlicher Kostentreiber sein, irgendwie vermute ich da in ner Consumerkamera auch nen Cropsensor. Das gibt winzige Pixelchen.
Dann war früher so ne Grundvoraussetzung die gleiche Apertur (~Blende) für Objektiv und Mikrolinse - das würde uns Liebhaber manueller Optiken etwas ungeschickt sein. Also alle Optiken auf Blende 4 oder 8 abblenden...
Ich könnte mir aber durchaus vorstellen, dass es für das System auch bald Anwendugen gibt, aber ich denke weniger in der Photographie (mit Ph) sondern mehr in die Richtung Video, 3D Animation vielleicht, wo eine geringe Auflösung nicht unbedingt stört.
Warum nimmt man nicht die 3D Kameras mit 2 Objektiven?
Wenn man 3D WW-Bilder hoch auflöst, müsste dieser Effekt ja auch funktionieren.
Per Nachbearbeitung kann man über die Räumlichkeit die Schärfe verteilen.
Die Lichtfeldkamera kann ja auch nicht mehr, denn sie miniaturisiert die 2-Augen Technik nur.
man muss doch nur nach dem foto den fokus äendern und sehr schnell einige weitere bilder schiessen, so wie "stacking fuer makros" nur schneller ?! dann reicht der 2D sensor aus.
gruss, L.