Foveon vs. Bayer: Bilder wo der Bayer auf ein 1/4 einbricht?

  • Autor des Themas Jab
  • Erstellungsdatum
Jab

Jab

Beiträge
277
Guten Abend!

Wie ihr weißt bin ich ein gemäßigter Foveon-Liebhaber, der sich auch für Bayer-Sensoren begeistern kann. Dieser Blogbeitrag hat mich auf das Auflösungsvermögen von Bayer-Sensoren neugierig gemacht. Mir war bereits klar, das Bayer-Sensoren keine feste, sondern eine Auflösung "von x bis y" haben, mir war aber nicht bewusst, das sie im Extremfall bis auf ein 1/4 der Nennauflösung einbrechen können. Habt ihr evt. Vergleichsfotos mit dem Foveon, wo man dieses Phänomen beobachten kann, oder wisst ihr wo man sich solche Fotos anschauen kann?
 
09.10.2013
#1

Anzeige

Guest

Schau mal hier: Foveon vs. Bayer: Bilder wo der Bayer auf ein 1/4 einbricht? . Dort wird jeder fündig!
Robert

Robert

Moderator
Beiträge
11.296
Du könntest versuchsweise mal das Licht von Leuchtdiodenanzeigen aufnehmen: da sollte sich aufgrund der Art des abgestrahlten Lichts eigentlich ein Unterschied erkennen lassen!
 
oz75

oz75

Moderator
Beiträge
7.046
Ein echtes Wiedergängerthema. :rolleyes:

Zum "Abfall bis auf 1/4 der Auflösung" mein bescheidenes Halbwissen:

1) Seit wann besteht das Licht in üblichen fotographischen Anwendungen aus diskreten Spektren / monochromatischem Licht?

2) Seit wann schneiden Farbfilter in ihrem Transmissionsverhalten Spektralbereiche rasiermesserscharf ab?

Nur mal so als Infoquelle: http://www.hebo-glass.com/de/filterglas_hebo

So ähnlich sieht es in Realität auch auf den gefilterten Pixeln des Bayer-Pattern aus. Bestenfalls! Ich glaube kaum, dass die exrem dünnen Filterschichten auf den Bayer-Sensoren auch nur annäherungsweise imstande sind, die Farbspektren präzise zu "sichten". Es gibt (fast) immer genug Signalinformation zum Interpolieren.

3) Interpolationsschema ist nicht gleich Interpolationsschema.

Kritisch wird die Bayer-Interpolation nicht in der Fläche, siehe o.g. Darlegungen, sondern an den Kanten, da dort der abrupte Wechsel von Signalinformationen (vom fotografierten Objekt) mit den Limitierungen des interpolationsalgorithmus korrespondiert.

In dieser Angelegenheit ist der Wikipedia-Artikel schon gehaltvoller, als der Blogbeitrag im Eingangsposting...

http://de.wikipedia.org/wiki/Bayer-Sensor

Schön zeigt die Kanteninterpolation auch das kleine "Papierchen" im Anhang, wo die Limitierung anhand einiger Algorthmen an einem Buchstabenbeispiels dargestellt wird.

http://www.matrix-vision.com/tl_files/mv11/Glossary/art_bayermosaic_de.pdf

Interessierst Du Dich im Detail für die (bekannten) Interpolationsverfahren, die verwendet werden, wirst Du hier fündig:

http://www.thedailynathan.com/demosaic/comparison.php?image=i/9s1is_bayerized.png

Solche Sachen macht der Foveon in der Tat besser. Da wird nichts an den Kanten gerechnet.

---------------------

Alles in allem halte ich den zitierten Blogbeitrag für inhaltsarm und plakativ. Er negiert bei der "min. 1/4-Aussage" die wirklichen Einflußgrößen auf die Bayer-Interpolation.
Ein ärmlicher, um nicht zu sagen erbärmlicher Versuch, der Thematik gerecht zu werden. :rolleyes:

---------------------

4) Auch wenn es nicht 100% zur Eingangsthematik passt:
Die PR-Information, dass der Foveon Schicht für Schicht sauber und brav und natürlich das Spektrum des einfallenden Lichts aberntet, ist ebenfalls eine sehr simplifizierte Darstellung.

Die oberste Schicht detektiert uneingeschränkt alle drei Farbspektralbereiche mit bestem Signal-Rauschverhältnis (speich das ganze einfallende Spektrum)...

...und ist natürlich zu dumm, um zwischen Farben zu unterscheiden.

Ich hatte auch hier
http://www.bilderforum.de/t16812-fo...ch-dualband-uv-nir-passfilter.html#post174938
etwas dazu geschrieben.

Die "Farb":rolleyes:Detektion in den tieferliegenden Schichten ist durch wellenlängenabhängige Transmissionsverhalten durch die Siliziumschicht(en) limitiert. Aber nie 100% sauber.

Drei Abgreifpositionen (bl /gr /r ) für ein nichtlineares Phänomen? Immerhin.

Insofern wird auch beim Foveon ein Riesen-Berechnungsaufwand betrieben, um uns die "schönen, echten Foveonfarben":rolleyes: bereitszustellen.

Der ganze Zirkus wird in ein paar sehr schönen Publikationen dargestellt.

Viel wilde Interpolation und Umrechung auch beim Foveon - allerdings nicht in der Fläche, sondern in der Tiefe.

--------------------------------------

Mein Fazit: Jeder Sensor hat Stärken und Schwächen. Selten ist die vermeintliche Stärke/Schwäche "schwarz" oder "weiß" zu sehen.

Gruß,
Oz
 
Robert

Robert

Moderator
Beiträge
11.296
Liest sich sehr interessant! Wie ist das denn nun aber mit der Abbildung von Licht, dass aus Leuchtdioden stammt? Das hat doch eigentlich eine ziemlich eng begrenzte Wellenlänge.
 
oz75

oz75

Moderator
Beiträge
7.046
Liest sich sehr interessant! Wie ist das denn nun aber mit der Abbildung von Licht, dass aus Leuchtdioden stammt? Das hat doch eigentlich eine ziemlich eng begrenzte Wellenlänge.
Hallo Robert,

die Verwendung von farbigen LEDs als Beleuchtung führt in der Praxis, z.B. der Konzertfotografie zu einigen Problemen, da die Intensität der recht engen Bänder einzelne Kanäle "überschießen lässt".

http://redfishingboat.com/2012/02/led-problems-in-concert-photography/

Was die Selektion einer LED zur Reduzierung der Auflösung auf "bis zu 1/4 der angegebenen Pixelzahl" betrifft, schau Dir einfach mal das hier

http://www.olympusmicro.com/primer/digitalimaging/cmosimagesensors.html

an, besonders das Diagramm der einzelnen Filtertransmissionen.

Du könntest einen Kr+ oder Rubin-Rotlaser mit seiner diskreten Emissionswellenlänge nehmen und den Sensor nicht auf 1/4 der Auflösung herunterzwingen, da sowohl der Grün- als auch der Blaufilter noch Anteile im Rotbereich durchlässt, welche als Signaldaten für die Bayer-Interpolation verwendet werden können.

Grüße,
Oz
 
Robert

Robert

Moderator
Beiträge
11.296
Hallo Oz,

danke für Deinen Input :)
 
Jab

Jab

Beiträge
277
Ein echtes Wiedergängerthema. :rolleyes:

Zum "Abfall bis auf 1/4 der Auflösung" mein bescheidenes Halbwissen:

1) Seit wann besteht das Licht in üblichen fotographischen Anwendungen aus diskreten Spektren / monochromatischem Licht?

2) Seit wann schneiden Farbfilter in ihrem Transmissionsverhalten Spektralbereiche rasiermesserscharf ab?

Nur mal so als Infoquelle: http://www.hebo-glass.com/de/filterglas_hebo

So ähnlich sieht es in Realität auch auf den gefilterten Pixeln des Bayer-Pattern aus. Bestenfalls! Ich glaube kaum, dass die exrem dünnen Filterschichten auf den Bayer-Sensoren auch nur annäherungsweise imstande sind, die Farbspektren präzise zu "sichten". Es gibt (fast) immer genug Signalinformation zum Interpolieren.

3) Interpolationsschema ist nicht gleich Interpolationsschema.

Kritisch wird die Bayer-Interpolation nicht in der Fläche, siehe o.g. Darlegungen, sondern an den Kanten, da dort der abrupte Wechsel von Signalinformationen (vom fotografierten Objekt) mit den Limitierungen des interpolationsalgorithmus korrespondiert.

In dieser Angelegenheit ist der Wikipedia-Artikel schon gehaltvoller, als der Blogbeitrag im Eingangsposting...

http://de.wikipedia.org/wiki/Bayer-Sensor

Schön zeigt die Kanteninterpolation auch das kleine "Papierchen" im Anhang, wo die Limitierung anhand einiger Algorthmen an einem Buchstabenbeispiels dargestellt wird.

http://www.matrix-vision.com/tl_files/mv11/Glossary/art_bayermosaic_de.pdf

Interessierst Du Dich im Detail für die (bekannten) Interpolationsverfahren, die verwendet werden, wirst Du hier fündig:

http://www.thedailynathan.com/demosaic/comparison.php?image=i/9s1is_bayerized.png

Solche Sachen macht der Foveon in der Tat besser. Da wird nichts an den Kanten gerechnet.

---------------------

Alles in allem halte ich den zitierten Blogbeitrag für inhaltsarm und plakativ. Er negiert bei der "min. 1/4-Aussage" die wirklichen Einflußgrößen auf die Bayer-Interpolation.
Ein ärmlicher, um nicht zu sagen erbärmlicher Versuch, der Thematik gerecht zu werden. :rolleyes:

---------------------

4) Auch wenn es nicht 100% zur Eingangsthematik passt:
Die PR-Information, dass der Foveon Schicht für Schicht sauber und brav und natürlich das Spektrum des einfallenden Lichts aberntet, ist ebenfalls eine sehr simplifizierte Darstellung.

Die oberste Schicht detektiert uneingeschränkt alle drei Farbspektralbereiche mit bestem Signal-Rauschverhältnis (speich das ganze einfallende Spektrum)...

...und ist natürlich zu dumm, um zwischen Farben zu unterscheiden.

Ich hatte auch hier
http://www.bilderforum.de/t16812-fo...ch-dualband-uv-nir-passfilter.html#post174938
etwas dazu geschrieben.

Die "Farb":rolleyes:Detektion in den tieferliegenden Schichten ist durch wellenlängenabhängige Transmissionsverhalten durch die Siliziumschicht(en) limitiert. Aber nie 100% sauber.

Drei Abgreifpositionen (bl /gr /r ) für ein nichtlineares Phänomen? Immerhin.

Insofern wird auch beim Foveon ein Riesen-Berechnungsaufwand betrieben, um uns die "schönen, echten Foveonfarben":rolleyes: bereitszustellen.

Der ganze Zirkus wird in ein paar sehr schönen Publikationen dargestellt.

Viel wilde Interpolation und Umrechung auch beim Foveon - allerdings nicht in der Fläche, sondern in der Tiefe.

--------------------------------------

Mein Fazit: Jeder Sensor hat Stärken und Schwächen. Selten ist die vermeintliche Stärke/Schwäche "schwarz" oder "weiß" zu sehen.

Gruß,
Oz
Vielen Dank für die vielen Infos! Ich werde mir morgen die Links genauer anschauen. :)
 

tippex

Beiträge
232
Entschuldigung, vielleicht bin ich doof, aber ich habe von diesen Theorien kein einziges Wort verstanden. :(

Kann man das auch für Laien verständlich erklären?
 
Robert

Robert

Moderator
Beiträge
11.296
So wie ich das verstehe bedeutet es, dass die Grenzen der Filterung bzw. der Absorbtion des Lichts fließend sind!

Bayer-Sensoren (die ja unterschiedlich Farbfilter nutzen) nutzen zur Interpolation unter z.B. den grün gefilterten Sensoren nicht nur den Bereich der grünen sondern auch anderer Wellenlängen des Lichts, Foveon-Sensoren absorbieren in den einzelnen Schichten zwar überwiegend aber eben doch nicht ausschließlich die einzelnen Farbanteile, es muss also auch dort aufwändig interpoliert werden.

Kann man das laienhaft so ausdrücken?
 
oz75

oz75

Moderator
Beiträge
7.046
Entschuldigung, vielleicht bin ich doof, aber ich habe von diesen Theorien kein einziges Wort verstanden. :(

Kann man das auch für Laien verständlich erklären?
Hallo Tippex,

das ist leider nicht wirklich einfach zu erklären.

Eigentlich ist in der Thematik alles drin, "was kompliziert und unverständlich ist": Halbleiter- und Quantenphysik, Lichttransmission, Signalverarbeitung und Mathematik.

Ein Versuch:

Wenn Du einen Bayer-Sensor unter dem Mikroskop betrachtest, sieht er schematisch so aus:

http://upload.wikimedia.org/wikipedia/commons/e/ef/Bayer_matrix.svg

Du kannst die einzelnen Pixel zählen. Die Summe der Pixel ist die Auflösung des Sensors.

Nun siehr man aber, dass die Pixel eingefärbt sind. Sie lassen nur eine bestimmte Sorte Licht durch:

Grünes Licht (50% aller vorhandenen Pixel)
Blaues Licht (25% aller vorhandenen Pixel)
Rotes Licht (25% aller vorhandenen Pixel)

Der Blog, den Jab zitiert, behauptet, dass wenn z.B. nur rotes Licht auf den Sensor trifft (= kein grünes und blaues Licht), die Auflösung des Sensors schlimmstenfalls auf 25% der Nennauflösung sinkt, da nur die "roten Pixel" aktiv sind.

Ich habe versucht darzulegen, dass dies bestenfalls ein theoretisches Gedankenkonstrukt ist, und das in Realität soviele Randeffekte dagegenspielen, dass es zu solchen Extremen nicht ansatzweise kommt.

Warum?

Sichtbares, natürliches Licht bildet ein kontinuierliches Spektrum aus

http://de.wikipedia.org/wiki/Lichtspektrum

Man sieht das Spektrum von violett-blau bis tiefem rot als kontinuierliches Band ohne Abrisse.

Für einen Bayer-Sensor bedeutet dies, dass bei natürlichem Licht immer genug blaue, grüne und rote Lichtbestandteile vorhanden sind, um alle roten, grünen und roten Pixel des Sensorschachbretts anzusprechen (Was ein Pixel wirklich ist, erläutere ich später).

Vergleiche nun das oben Gezeigte mit diesem diskreten Spektrum (Linienspektrum):

http://de.wikipedia.org/wiki/Linienspektrum

Nur einige, diskrete Wellenlängen sind sichtbar. Alles andere ist "dunkel".
So etwas kommt zum Beispiel bei Natriumdampf- oder Quecksilberdampflampen vor.

Im absoluten Extremfall eines Lasers, siehst Du Licht einer einzigen Wellenläge als Strich im optischen Spektrum. Alle anderen detektierbaren Wellenlängen (="Bereiche des Farbspektrums") sind nicht existent (denke bei der Aussage an den Bayer-Sensor!!).

Hier Beispiele für Lasertypen:

http://upload.wikimedia.org/wikipedia/commons/f/f0/Commercial_laser_lines.de.svg

Nun nimm mal den Helium-Neon-Laser: 632,8 Nanometer = Tiefrot.

Beleuchtest Du ein Motiv (bei sonst aboluter Umgebungsdunkelheit) mit diesem roten Laser (=perfekt monochromatisches Licht) und fotografierst es, könnte man nun meinen, dass nur noch die roten Pixel auf dem Bayer-Sensor (25% der verfügbaren Pixel) ansprechen.

Hurra - der Bayer hat nur noch 25% seiner Auflösung!

Wirklich?

Nun muss man sich mal Gedanken darüber machen, was eigentlich ein Pixel und ein Farbfilter ist.

Sehr vereinfacht:
Ein Pixel auf dem Sensor ist prinzipiell eine Photodiode. Ein Element, dass auf Basis des photoelektrischen Effekts Licht(quanten) "sammelt" bis eine Schwelle überschritten ist und dann Elektronen aus der Siliziumschicht ausgelöst werden. Diesen elektrischen Strom kann man messen. Fließt Strom, war Licht da.

Die Pixel auf dem Bayer-Sensor sind alle gleich.
Ein Pixel schert sich nicht um Farben, sondern nur um die Menge einfallender Lichtenergie um bei ausreichender Verfügbarkeit (von Lichtquanten) einen aus dem photoelektrischen Effekt resultierenden (Elektronen-) Strom zu erzeugen.

Das ist schon einmal die Basis für die Hell-Dunkel- (=Schwarzweiß-) Fotografie mit so einem Sensor.

Möchte man aber Farbaufnahmen mit einem Sensor (aus vielen einzelnen Pixeln bestehend) machen, so muss man einzelnen Pixeln Farben zuweisen. Deswegen beschichtet man sie mit Farbfiltern, die im Idealfall nur eine bestimmte Bandbreite aus dem (kontinuierlichen) optischem Spektrum durchlassen.

So werden halt auf einem Bayer-Sensor die Pixel so beschichtet, dass

50% grünes Licht
25% blaues Licht
25% rotes Licht

detektieren können sollen.

((Nur nebenbei. Das "echte" Farbbild wird daraufhin über eine Interpolation aus den einzelnen Farbpixeln zusammengerechnet: Beispiel: http://www.thedailynathan.com/demosaic/algorithms.php?image=i/344m2_lighthouse1_orig.png)

Zu den Filtern:
Eine Farbfilterung durch diese ganz dünnen Farbfilter auf dem Sensor funktioniert aber nie perfekt, da die Beschichtungen immer auch andere Wellenlängenbereiche durchlassen. Weniger davon, aber für ein Pixel detektierbar.

Konkret:

Ein grün eingefärbtes Pixel "sieht" durchaus auch noch etwas rot und blau!

Ein rotes Pixel durchaus auch grün und blau. etc...

Schau Dir mal diesen (übrigens vorzüglichen) Link genauer an:

http://www.olympusmicro.com/primer/digitalimaging/cmosimagesensors.html

Im Diagramm "Bayer Filter Transmission Spectral Profiles" sind die Farbdurchlässigkeiten der einzelnen Filterlagen dargestellt.

Und nun stellt Dir noch einmal die Situation des mit dem Helium-Neon-Laser (632,8 Nanometer) beleuchteten und fotografierten Motivs vor.

Die QuantenAUSBEUTE der Pixel unterhalb der blauen Filterlage liegt dann bei 5%, bei der grünen Filterlage (50% alle Pixel!!) immerhin bei 7,5%.

Das bedeutet zwar, dass es länger dauert, bis die blaue und grünen Pixel "feuern", aber sie tun es!

Ok, das Bild wird stärker rauschen, aber die Auflösung des Bayer-Sensors wird selbst in dieser Extremsituation nicht einmal annähernd auf 25% abfallen.

-----------------

Daher halte ich die "weise Predigt aus o.g. Blog" schlichtweg für unseriösen Unfug. Das, was dort propagiert wird, ignoriert die wirklichen Rahmenbedingungen die der ganzen Sache zugrundeliegen.

Gruß,
Oz
 
Stoneage

Stoneage

Beiträge
1.086
Toller Beitrag Oz, den sollte man irgendwo anpinnen :daumen:
 

xya

Beiträge
114
Danke der Blumen, Stoneage!
Aber damit es anpinnenswert wird, müsste ich das Ganze noch etwas umarbeiten. Auch im Sinne der nicht immer feinen Wortwahl. :D
wortwahl hin oder her, große güte, endlich mal eine erklärung, die innerhalb einer halben stunde linkverfolgung alle fragen klärt, die ich bisher nicht so richtig verstanden habe. chapeau, wie man hier in frankreich sagt. danke.:daumen:
 
Robert

Robert

Moderator
Beiträge
11.296
Da stimme ich voll und ganz zu - und habe es nun oben angepinnt :daumen:
 
oz75

oz75

Moderator
Beiträge
7.046
Ups, na dann sag ich mal merci beaucoup. :eek:
 
Klaus-R

Klaus-R

Moderator
Beiträge
20.119
Auch ich darf mich bei Oguzhan für diesen engagiert geschrieben und insbesondere "einleuchtenden" Beitrag herzlich bedanken.

Wenn Du Dein Werk mit einem eigenen Thread manifestieren würdest, dann würde das ganz sicher ein häufig diesbezüglich referenzierter bzw. zitierter Faden werden.

Ich würde da gerne im Sinne vieler, die zur Thematik "Bildsensortechnik" Klärungsbedarf haben, für plädieren.:daumen:

Bayer vs. Foveon ....;)

Die ewige Frage, was nun besser ist, wird wohl eine ewige bleiben.....:eek:

-Wäre der Foveon bei LOW LIGHT bzw. hohen Sensorempfindlichkeiten stärker, wäre die Antwort klar.

-Wäre der Bayer-Sensor in Sachen Eingangsdynamik Farbdifferenzierung, Pixelschärfe und Farbmoiré-Problematik stärker (bzw. auf Foveon-Niveau) wäre die Antwort ebenfalls klar.

-Das Thema "Auflösung" ist für mich inzwischen total durch ... das können beide Systeme inzwischen bis über die Grenzen der Objektivtechnik hinweg so gut, dass da keine Debatte mehr lohnend erscheint. Für den Foveon spricht diesbezüglich vielleicht noch, dass die Bilddateien bei gleicher Nettoauflösung erheblich kleiner ausfallen.

Fakt ist für mich (und ich finde beide Bildsensorkonzepte gut), dass die Technik zwar interessant sein mag, für "Sein- oder Nichtsein" Debatten aber nicht mehr herhalten kann, weil sie schlicht und einfach so oder so viel zu gut ist, um das noch zu rechtfertigen.

Grüße und schöne Photos

Klaus

P.S. Dass die Foveon X3 Bildsensortechnik die letzten 10 Jahre für ernstzunehmende Konkurrenz zum "Bayer-Sensor-Monopol;)" gestanden hat, ist umso erstaunlicher, als dass nur eine einzige relativ kleine Firma 'drangeblieben ist. Schade nur, dass SIGMA sich immer wieder durch idiotisches Marketing selber die Knüppel zwischen die Beine geworfen hat.:eek:
 
oz75

oz75

Moderator
Beiträge
7.046
Ich zitiere mal frei eine gute Seele des Forums: Kamera und Sensor egal- mach was damit! :D

Das mit einem separaten Thread finde ich auch besser. Mach ich so - wird aber noch ein paar Tage dauern, da ich die Woche nicht dazu kommen werde. Man muss die Leutchen ja nicht mit kontroversen Blogdiskussionen belasten.:)

Grüße,
Oz
 
Klaus-R

Klaus-R

Moderator
Beiträge
20.119
(...) es muss also auch dort aufwändig interpoliert werden.

Kann man das laienhaft so ausdrücken?
Ganz kleiner Widerspruch :ups: Euer Ehren;).

Bei der Foveon X3-Bilderfassungstechnik muss wirklich nicht interpoliert werden.

Beim Bayer-Sensor müssen ja nun die RGB-Werte aller Einzelpixel aus den R oder G oder B Werten der umliegenden Pixel interpoliert (also geschätzt;)) werden.

Der X3 Sensor liefert je Pixel einen individuell "ausgelösten" vollständigen RGB-Wert, der allerdings RGB-mäßig mit unterschiedlicher Signalstärke (je Farbe) abgelifert wird und rechnerisch der Realität angepasst werden muss.
leider ist im Vergleich zum Bayer-Sensor auch der Signal-Störabstand prinzipbedingt schlechter, was ja zur relativen HIGH-ISO Schwäche des Systems führt. Die enorme Datenflut bremst die Signalverarbeitung und letztlich die Arbeitsgeschwindigkeit der Kamera.

EGAL .... so oder so sind die Bildergebnisse unserer Kameras besser, als alles, was je da war.:daumen:

Grüße und schöne Photos

Klaus
 
Klaus-R

Klaus-R

Moderator
Beiträge
20.119
Ich zitiere mal frei eine gute Seele des Forums: Kamera und Sensor egal- mach was damit! :D

Das mit einem separaten Thread finde ich auch besser. Mach ich so - wird aber noch ein paar Tage dauern, da ich die Woche nicht dazu kommen werde. Man muss die Leutchen ja nicht mit kontroversen Blogdiskussionen belasten.:)

Grüße,
Oz
Grundsätzlich bin ich mit unserem Laden hier inzwischen sicher, das "Grundsatzdiskussionen" nicht in sinnfreien Grabenkämpfen enden ... das können wir doch!:daumen:

Die Kamera ist in dem Moment ABSOLUT EGAL, wo sie im Sinne der Erfinder
als höchstwertiges Bilderfassungsgerät genutzt wird.
Das nämlich können inzwischen alle "ordentlichen" Kameras wirklich ausnahmslos.
So einige "Testbildknipser" sehen da natürlich "gewaltige" Unterschiede ... so im "auf 1/4 einbrechen" Bereich ....:cool::eek:

Grüße

Klaus
 

tippex

Beiträge
232
Ganz kleiner Widerspruch :ups: Euer Ehren;).

Bei der Foveon X3-Bilderfassungstechnik muss wirklich nicht interpoliert werden.

Beim Bayer-Sensor müssen ja nun die RGB-Werte aller Einzelpixel aus den R oder G oder B Werten der umliegenden Pixel interpoliert (also geschätzt;)) werden.
....
Die enorme Datenflut bremst die Signalverarbeitung und letztlich die Arbeitsgeschwindigkeit der Kamera.
Danke! :daumen:
Auch ich halte die obigen Erklärungen - zumindest was den Foveon betrifft - für falsch. Ich bin nicht in der Lage ebenso wortreich das Gegenteil zu beweisen, aber die Realität, Erfahrungen und eigene Bildvergleiche sind für mich eindeutig.