@OpticalFlow:
Du hast wahrscheinlich recht, Raytrix hat die komplette Bildverarbeitung auf den angeschlossenen Rechner mit der GPGPU als Hauptberechnungseinheit ausgelagert.
Somit fallen die erwähnten Limitierungen von Speicherkarten und die hohen Kosten für speziell entwickelte FPGAs schon mal weg und das System ist einfacher aufrüstbar.
(Nur eben nicht transportabel, falls man die Bilder unterwegs auch ansehen will.)

Ohne die Hochrechnung von den einzelnen 8 - 12 Bit Pixeln einer Farbe im Bayer-Sensor haben wir pro Bild 10,7 Megabyte (8 Bit) oder 16,0 Megabyte (12 Bit), was einem normalen DSLR-Bild ohne Debayering und Postprocessing/Kompression entspricht. Diese lassen sich, wie man von heutigen DSLRs weiß, problemlos speichern und übertragen.
Benötigt wird nur ein spezielles Mikrolinsen-Array (?) vor dem Sensor, damit eine Kamera solche Bilder aufnehmen kann.

Stimmt das soweit? Mir kommt das bisher nämlich irgendwie zu einfach vor, vor allem der Teil mit dem Sensor, und deshalb auch der Teil mit der Datenmenge

Was jedoch klar ist: die benötigte Rechenpower für die Entwicklung der Bilder in einen Kamerabody mit Batteriebetrieb zu quetschen wird eine ordentliche Herausforderung.

Schließlich braucht man momentan noch ein NVIDIA GTX 580-Rechenmonster benötigt wird. Denn das Ding will bis zu 300 Watt ;D
Und ob selbst eine GTX 580 die Verarbeitung der Bilder in 'Echtzeit' schafft, ist auch nicht ganz klar..