Vorneweg: nein!

Das ist kein Topic zum streiten was besser ist, sondern ich habe hier ein Frage die sich mir stellt, wenn man die Bauweise eines Sensors mit der Funktionsweise eines Films vergleicht.
Und im Grunde ist das auch eine sehr laienhafte Überlegung und bin froh über Hilfe.

Während bei einem Film das Licht aus einem Objektiv nun einfach auftrifft und eine chemische Reaktion hervorruft ist das bei einem Sensor insofern anders, dass er ja je nach Bauweise "Farb"-Prismen hat, die das Licht in drei Farben aufteilt (Dreichip-Kamera?) oder eben bei Einchip-Kameras einen Infrarot + Alias-Filter (Nyquist-Shannon Abtasttheorem, Tiefpass) und RGB Streifenfilter. Danach wird interpoliert und man gewinnt das Bild daraus.

So, aber nun stelle ich mir die Frage, nehmen wir eine Einchip-Kamera, bzw. den Sensor dergleichen. Ist es hier nicht auch von Belang WIE, also in welchem Winkel der Lichtstrahl auftrifft? Während das beim Film schätzungsweise aufgrund der direkten reaktion recht unwichtig ist, stelle ich mir das bei einem Sensor doch etwas schwieriger vor. Schliesslich kann je nach Einfallswinkel das Licht 2, 3 oder 4 Pixel (absichtlich übertrieben) treffen, obwohl es vllt. nur für einen bestimmt wäre, vor allem verstärkt durch den Alias-Filter, meiner Ansicht nach würde das dann gerade bei Altgläsern dazu führen, dass sie auf dem Sensor eine noch größere chromatische Aberation erzeugen können, als sie eigentlich abbilden. Ich meine ich hätte tatsächlich mal irgendwo was gelesen, dass der Einfallswinkel wirklich von Belang ist, aber das war auch immer nur so ohne weiteren Hintergrund. Leider finde ich aber zu dieser Problematik nichts weiteres, tieferes.

Kennt sich jemand damit aus? und ist das wirklich ein ausschlaggebender Punkt auch bei der Entwicklung neuer Objektive für digitale Sensoren?

Danke schonmal