Figure 2A und der dazugehörige Text bringt hier aus meiner Sicht auch keine wirkliche Klarstellung.
Solche Features werden in Patenten nicht umsonst dargestellt.
Aus der Darstellung geht hervor, dass Bereiche der Pixels, die mit anderen Systemkomponenten als dem Photodetektionsbereich versehen sind, mit einem "Light Shield" versehen werden.
Also, hier noch einmal das Urpatent, mit der von Dir immer wieder angeführten Skizze (Figure 6):
http://worldwide.espacenet.com/publ...OC&locale=de_EP&CC=WO&NR=9956097A1&KC=A1&ND=2
Man kann sich dort das zugehörige pdf herunterladen.
Figure 12A zeigt eine Draufsicht auf ein "experimental layout" des 3-Schicht-Photodioden-Pixels. Dort ist erkennbar, dass die dotierten Zonen eine unterschiedliche Flächen(abmaße) belegen, was Deine Annahme zunächst untermauert.
Ebenso ist aus Figure 13A ersichtlich, dass nicht in der Photodetektion zu beteiligende Bereiche des Pixels mit einem "Light Shield" versehen sind.
Der Text im Patent läßt auch darauf schließen:
Zu Figure 12A, siehe S.13 Zeile 19ff: "A fourth layer of metal would preferably be used as a light shield to allow light to fall only on the photodiodes, but is not shown in the figure"
Zu Figure 13A (pixel cross section), siehe S.14, Zeilen 1-5... dasselbe wording...
Weiterhin geht aus den Erläuterungen auf S.11, Zeilen 24 ff. hervor, dass aus dem Signaltripel der untereinanderliegenden Photodioden per "proper matrixing" Farbzuordnungen gebildet werden.
Dies erfolgt in der Praxis per Kalibrierung an einem Monochromator und ist kein Geheimnis, da dies von Entwicklern von X3F-Software auch so verlautbart wird:
http://www.dpreview.com/forums/post/50578456
In keinem Wort wird in dem o.g. Patent von einer Interpolation in der Ebene
gesprochen. Das Signaltripel definiert die Farbe für das Pixel.
Einmal kalibriert, bedeutet dies nichts anderes, als in eine -zugegeben sehr große- Lookup-Tabelle/Matrix zurückzugreifen. Keine komplizierte Mathematik. Daß da noch im weiteren Processing aufwendig herumgerechnet wird (Highlights, Pixelkorrektur etc etc), bezweifle ich indes nicht!
--------
Was den Quattro betrifft, ist die Informationslage in der Tat etwas dünner.
(Es lohnt sich ggf. nach weiteren Foveon-Patenten zu suchen...)
Es deutet einiges darauf hin (wie ich
hier als eine von 2 möglichen Optionen vermutet hatte), dass in der Ebene gerechnet wird.
Indiz hierfür ist, dass durch eine reine Software-Anpassung die Auflösung im Falle des "beergardan phänomens" deutlich verbessert werden konnte:
http://www.dpreview.com/forums/thread/3721885
Die alleine reicht mir persönlich noch nicht für eine plausible Erklärung.
Interessant wären Darstellungen aus den jeweiligen Monochrom-Kanälen von pre-SPP6.0.6 Versionen und diesbezüglich Vergleiche mit dem aktuellen Release.
Noch schöner wäre es natürlich, wenn man dies ganz außerhalb von SPP, z.B. mit Proxel X3F prüfen könnte.
Gruß,
Oz