Bilderforum.de

Zurück   Bilderforum.de > Digitalkamera Hersteller > Sigma Forum > Sigma Digitalkameras

Sigma Digitalkameras Alles zum Thema Sigma Digitalkameras. Informationen, Tipps und Tricks.

Foveon vs. Bayer: Bilder wo der Bayer auf ein 1/4 einbricht?

Antwort
 
Themen-Optionen Ansicht
Alt 16.10.2013, 05:55   #31
oz75
Moderator

oz75's Ausrüstung
 
Benutzerbild von oz75
 
Beiträge: 5.237
Standard

Zitat:
Zitat von Jab Beitrag anzeigen
Zwar ist der Blog-Post einfach geschrieben (richtet sich wohl an Laien und keine Experten)...
Ich nenne so etwas Laien-Irreführung. Auch Laien verdienen Worte zu den Limitierungen der dortigen Erörterungen. So werden sie das mitnehmen, was dort gepredigt wird und es für bare Münze nehmen.

Zum Bildvergleich:
Ich kann nicht beurteilen, ob die Bilder gefaked sind. Unabhängig davon sieht das D800-Bild merkwürdig aus - übersät mir Artefakten. Auch in anderen Partien des Bildes sind seltsame Dinge zu entdecken (z.B. an den Türfalzen).

Was wäre ein seriöser Ansatz, um die Sache zu klären?
Richtig: Das Einstellen der RAW-Dateien beider Kameraufnahmen zum Download.

Hast Du ggf. irgendeinen Vergleich, der solchen Mindestanforderungen entspricht?
oz75 ist offline  
Alt 16.10.2013, 05:55   #31
Anzeige
 
Standard

Hast du schon mal in Fotos nach Rezept nachgelesen?
Eventuell hilft dir das ja bei deinem Problem ;-).
oz75 ist offline  
Alt 22.10.2013, 14:18   #32
annatude
Gesperrt

annatude's Ausrüstung
 
Beiträge: 82
Standard

Hallo!
Ich habe zugegeben mich anfangs auch nicht ausgekannt und es hat mich bis jetzt nicht wirklich interessiert. Aber da Sigma ja ebenfalls an diesen Foveon Sensor arbeitet, habe ich mich damit auseinander gesetzt und ich finde hier ist es sehr gut erklärt, für die, die es nicht verstanden haben.

Und hier ist ein offizieller Vergleich mit einer Canon 350D und einem Sigma DP1:
Foveon-Bayer-Sensor-Vergleich-01.jpg
wie man sieht, sieht das Bild rechts viel realistischer aus, oder?
annatude ist offline  
Alt 22.10.2013, 20:13   #33
Klaus-R
Moderator

Klaus-R's Ausrüstung
 
Benutzerbild von Klaus-R
 
Beiträge: 15.807
Standard

Zitat:
Zitat von annatude Beitrag anzeigen
(...)
wie man sieht, sieht das Bild rechts viel realistischer aus, oder?
Hmm ... ich bin jetzt nicht wirklich sicher, ob ich verstehe, was Du meinst?

Gib mir 3 min. EBV-Zeit, und es wird sehr schwierig, beide Bilder auseinanderzuhalten ... zumindest in der Größe hier.

Grüße

Klaus

P.S. Ich habe zufällig gerade eine EOS 350D hier zum "Check and Clean" auf dem Tisch liegen ... Mit gereinigtem Bildsensor und nun wieder fusselfreier Mattscheibe ist das eine erstaunlich gute Knipskiste.
Klaus-R ist offline  
Alt 23.10.2013, 20:23   #34
oz75
Moderator

oz75's Ausrüstung
 
Benutzerbild von oz75
 
Beiträge: 5.237
Standard

Zitat:
Zitat von oz75 Beitrag anzeigen
... Die Farbermittlung auf Basis der wellenlängenabhängigen Eindringtiefe der Photonen in die Siliziumschichten des Foveons ist aber eine haarige Angelegenheit.
Ich bin mir recht sicher, dass dort enorm viel Kalibrierarbeit bei der Sensorentwicklung und der Anpassung der verarbeitenden Einheiten erforderlich ist.

S.27 in der nachfolgenden Thesis zeigt das ganz gut. Dort wurde ein Foveon mit einem Monochromator vermessen.

http://www.dtic.mil/cgi-bin/GetTRDoc?AD=ADA429699

Die "blaue Schicht" des Foveon (blau?) sieht nicht nur blau, sondern alles!! Blau, rot, grün.

Die "grüne Lage" kriegt schon weniger von dem in der oberen, "blauen Lage" absorbierten kurzwelligen Lichtbestandteilen mit. Dies gilt natürlich umso stärker für die unterste Lage - jene, die für die "Rot"-Detektion zuständig ist.

Das muss man sich mal auf der Zunge zergehen lassen:

Die blauabsorbierende Schicht sieht (und detektiert!) das ganze optische Spektrum von violettblau bis dunkelrot (420nm - 670nm).

Die grünabsorbierende Schicht sieht von blaugrün bis dunkelrot (470 - 670nm).

Die rotabsorbierende Schicht sieht von grün bis dunkelrot (490 - 670nm).

Es ist auch logisch, da Photodioden im Silizium des Foven nicht zwischen Farben unterscheiden. (Genausowenig, wie ein Bayer-Sensor ohne Farbfilter Farben in der Pixelebene unterscheiden kann.)

Daher ist der Berechnungsaufwand zur Farbrekonstruktion aus diesen Signaldaten der einzelnen Ebenen aufwändig. Rechenaufwändig - denn sie kommen nicht naturgegeben aus dem Sensor.

Teilweise werden diese Berechnungen in der Kamera durchgeführt (für die jpg-Ansicht ist es unumgänglich) aber wohl hauptsächlich in der Postprocessing-Software. Sicherlich liegen im SPP entsprechende Lookup-Tabellen vor, die mit welchen Algorithem auch immer in den per Monochromator generierten Signaldatentabellen hin- und herrechnen. Ich sage auch mal ketzerisch: "Interpolieren".

Das die breite Wellenlängen-Detektion der Sensorebenen kein Hingespinst ist, kann sich jeder SD1-Besitzer im Monochrom-Modus des SPP vor Augen führen. Einfach einmal mit der gezielten Aussteuerung des Blau-, Grün- und Rotkanals spielen.

Im Kontext ein sehr interessantes Statement eines Software-Entwicklers

http://www.dpreview.com/forums/post/50578456

Grüße,
Oz
oz75 ist offline  
Alt 24.10.2013, 21:48   #35
Jab
Foto-Experte
 
Benutzerbild von Jab
 
Beiträge: 277
Standard

Zitat:
Zitat von oz75 Beitrag anzeigen
Ich nenne so etwas Laien-Irreführung. Auch Laien verdienen Worte zu den Limitierungen der dortigen Erörterungen. So werden sie das mitnehmen, was dort gepredigt wird und es für bare Münze nehmen.

Zum Bildvergleich:
Ich kann nicht beurteilen, ob die Bilder gefaked sind. Unabhängig davon sieht das D800-Bild merkwürdig aus - übersät mir Artefakten. Auch in anderen Partien des Bildes sind seltsame Dinge zu entdecken (z.B. an den Türfalzen).

Was wäre ein seriöser Ansatz, um die Sache zu klären?
Richtig: Das Einstellen der RAW-Dateien beider Kameraufnahmen zum Download.

Hast Du ggf. irgendeinen Vergleich, der solchen Mindestanforderungen entspricht?
Leider nein. Die vorige Woche über hatte ich auch keine Zeit zu suchen. Ich werde mich aber melden, falls ich etwas finde.
Danke für den Link.
Jab ist offline  
Alt 24.10.2013, 21:55   #36
Klaus-R
Moderator

Klaus-R's Ausrüstung
 
Benutzerbild von Klaus-R
 
Beiträge: 15.807
Standard

Hallo Oguzhan,

puhh .... ich bin der englischen Sprache wirklich gut mächtig, der Sache aber nicht in dem Maße, als dass ich den DPRIVIEW Post wirklich verstehen könnte....

Kannst Du das evtl. mal in etwas einfachere Worte (zusmmen)fassen ... sorry ... ich weiß, dass das viel Malloche ist...

Grüße und schöne Photos

Klaus
Klaus-R ist offline  
Alt 25.10.2013, 15:54   #37
annatude
Gesperrt

annatude's Ausrüstung
 
Beiträge: 82
Standard

Eigentlich steht auf der dpreview Seite nur, wie das alles funktioniert. Es gibt hier von Sigma auch eine sehr genaue Erklärung: http://www.sigma-foto.de/fotowelt/fo...ildsensor.html

Hilft das?
annatude ist offline  
Alt 25.10.2013, 16:57   #38
Stoneage
profimässiger Knipser

Stoneage's Ausrüstung
 
Benutzerbild von Stoneage
 
Beiträge: 903
Standard

Zitat:
Zitat von annatude Beitrag anzeigen
Es gibt hier von Sigma auch eine sehr genaue Erklärung: http://www.sigma-foto.de/fotowelt/fo...ildsensor.html

Hilft das?
Ich denke, Klaus, als Sigma-Häuptling weiss sehr gut wie der Foveon funktioniert.
Im dpreview Posting geht es aber um die Schwierigkeiten, die Roh-Daten überhaupt zu verarbeiten.
Obwohl ich relativ gut englisch kann, habe ich aber auch nicht alles verstanden.
Im Beitrag kommt der Foveon eher schlecht weg, so schlecht, dass ich mich wundere, wie es möglich ist, dass wir trotzdem gute Ergebnisse erhalten.
Dass der Foveon Sensor im Speziellen schlecht sein soll bei Überbelichtung (blown highlights) während dieser Übergang bei Bayer angeblich schön langsam und weich stattfindet, deckt sich (ausgenommen SD15 ) eher nicht mit meinen Erfahrungen.
Aber wie gesagt, ich bin da technisch zu wenig bewandert, dies (auf Software-Entwicklerebene) wirklich beurteilen zu können.
Stoneage ist offline  
Alt 25.10.2013, 20:43   #39
Klaus-R
Moderator

Klaus-R's Ausrüstung
 
Benutzerbild von Klaus-R
 
Beiträge: 15.807
Standard

Zitat:
Zitat von Stoneage Beitrag anzeigen
(...)
Dass der Foveon Sensor im Speziellen schlecht sein soll bei Überbelichtung (blown highlights) während dieser Übergang bei Bayer angeblich schön langsam und weich stattfindet, deckt sich (ausgenommen SD15 ) eher nicht mit meinen Erfahrungen.
Aber wie gesagt, ich bin da technisch zu wenig bewandert, dies (auf Software-Entwicklerebene) wirklich beurteilen zu können.
Jou ... genau dieser Punkt ist so auch meiner Meinung nach nicht haltbar!
Insbesondere in der Lichterzeichnung sehe ich eine explizite Stärke aller mir bekannten SIGMAs (ich habe ja noch keine Merrill).

Bei den Bayer Sensoren haben sich inzwischen die CMOS-Typen gegen die CCDs durchgesetzt. Die CCDs sind diesbezüglich noch schwächer (auch "Bloomimg" Problematik), als die CMOS-Sensoren, die schon bessere Lichter-Zeichnung abliefern.

Ich kann für alle meine CANONs sagen, dass sie diesbezüglich schwächer sind, als die SIGMAs.

Grüße und schöne Photos

Klaus
Klaus-R ist offline  
Alt 25.10.2013, 21:21   #40
oz75
Moderator

oz75's Ausrüstung
 
Benutzerbild von oz75
 
Beiträge: 5.237
Standard

Hallo Klaus und Stoneage,

zum Link http://www.dpreview.com/forums/post/50578456 muß ich etwas erzählen:
Ich hatte mich aufgrund der mangelnden Silkypix-Untersützung für die Merrills in den Thread eingeklinkt und interessante Antworten von Arvo Jägel erhalten. Daß sich auch besagter J. Wisniewski geäußert hat, ist mir entgangen. Ich hab' das Posting erst vor ein paar Tagen entdeckt, als ich den Thread ausgegraben habe.

Mich interessieren seine Äußerungen, weil es sich bei ihm um einen Softwareentwickler zu handeln scheint, der schon einmal etwas in Richtung Foveondatenaufbereitung programmiert hat. Ich kaufe ihm das durchaus ab. Das, was er da schreibt, trägt nicht die Handschrift einer Schaustellers.

Wie Stoneage schon sagt, ist gerade der Passus über die Highlights, ein Teil, bei dem ich ungläubig den Kopf geschüttelt habe (es gibt da sehr gutmütige Foveons, lassen wir die Dpx'en und SD15 mal außenvor), der mich andererseits aber auch sehr neugierig macht.
So etwas kann man ggf. forcieren und schauen ob die anderen Kanäle auch betroffen sind.
Ich habe ja versucht darzulegen, dass die Foveon-Sensorebenen nicht Farbsignale sehen, sondern, den Gesetzmäßgkeiten der Halbleiterphysik und der Transmission durch Siliziumschichten folgend, detektieren.
Warum sollte es nicht möglich sein, z.B. bei 600nm (also orangerot) alle drei Kanäle gleichzeitig zu überfluten? Alles eine Frage der Einstrahlintensität, da bei dieser Wellenlänge blau und grün auch ansprechen.

Muß ich mal ausprobieren.

Zum Inhalt des Postings:

Es ergab sich, dass die Frage aufkam, ob man der Entwicklung von dcraw (der RAW-Konverter von Dave Coffin) nicht nachhelfen könnte, indem man Color-Target-Aufnahmen zur Verfügung stellt, die der Farbkalibrierung dienen sollen.

Warum? Weil dcraw für Merrills zurzeit noch solche Bilder liefert:

http://www.dpreview.com/forums/post/50495475

Arvo hat erläutert, dass dies nicht zielführend sei.

Zu den Ausagen von Wisniewski:

1.)
Wisniewski spricht zunächst etwas an, was ich vollkommen nachvollziehen kann: Ein Foveon ist nicht per se farbensehend - und schon gar nicht schichtenbezogen selektiv farbensehend. Er nennt das "noncolorimetric". (Bayer'sches Silizium wird auch nur deswegen "farbensehend", weil echte Farbfilter vor entsprechende Pixel vorgeschaltet sind - ein Foveon hat aber keine Farbfilter jenseits des UV/IR-Sperrfilters).

Wie kann man also die Grundlage schaffen, Farben aus den Signalen zu konstruieren? "Ganz einfach": Indem man für den zu kalibrierenden Foveonsensor, Fingerabdrücke zur jeder Wellenlänge aufzeichnet: Jede Wellenlänge eines kontinuierlichen Spektrums ist charakterisiert durch ein Tripel (ich nenne sie hier mal bewußt nicht R/G/B, sondern Ebene 1, Ebene2 und Ebene3) entsprechender Quantenausbeuten (Quanteneffizienzen) der jeweiligen Sensorebenen. Verwendet man nun einen Monochromator mit dem man den Sensor bestrahlt, kann man das Lichtspektrum -diskret, Wellenlänge für Wellenlänge- durchwandern und dabei entsprechende Sensordatentripel aufzeichnen. Eine Datenbank zum Abgleich von Signalausbeuten entsteht, anhand derer man (den Fingerabdrücken) Wellenlängen zuordnen kann.

So eine Datenbank kann theoretisch beliebig groß werden. Mit wie vielen diskrete Wellenlängen möchte man denn ein kontinuierliches Spektrum annähern. 10? 100? 10^18?
Also beschränkt man sich auf entsprechende sinnvolle Anzahl von Stützstellen, z.B. in 10nm-Abständen.
Und was macht man mit den Lücken dazwischen. Richtig: Die Werte dazwischen interpoliert man mit hinreichender Genauigkeit.

Für die erforderlichen Interpolations und Matrixoperationen schlägt Wisniewski das Open Source Werkzeug Little CMS (Color Management System) vor:

http://www.littlecms.com/

2.)
Mehr Kopfzerbrechen bereitet mir, wie Wisniewski das Signalverhalten des Foveons beim Ausbrennen eines Ebenenkanals beschreibt. Er meint, dass wenn ein Kanal ausbrennt ("blowouts"), alle anderen auch unbrauchbar werden und dass die RAW-Prozessoren für Foveon-Daten vollumfängliche inpainting-Algorithmen (inapainting = Rekonstruktion) verwenden, um diesen Umstand abzumildern.

Zunächst einmal ist mir klar, dass durchaus auch alle drei Kanäle gleichzeitig durchbrennen können. Ich hatte dies eingangs (in diesem Posting) erwähnt. Das meint er aber wahrscheinlich nicht.

Gedankenspiel: Was passiert, wenn, sagen wir mal, der Rotkanal völlig durchgebraten wird?

Wie sieht dann die Fingerabdrucksuche in der Signaltripel-Datenbank aus?
Ist da überhaupt ein passender?

Man stelle sich mal den Aufwand vor, eine Signaldatenbank für den Foveon mit gezielter Reproduktion einzeln ausgebrannter Signalkanäle zu erstellen.

Ich denke schon, dass da Rekonstruktionsalgorithmen im SPP vorhanden sind.

Wisniwski sagt:
"Currently, SPP uses full fledged inpainting for blowouts. Sometimes that works, other times, you get weird textures in the blowouts. That "signature" is what let me figure out WTF Foveon was doing."

WTF übersetze ich mal nicht.

Verrückte Texturen in der ausbrandrekonstruktionszone? Ja die kenne ich - von der SD14, siehe die Koronastruktur um die Sonne.

SD14.jpg

Und noch einmal die im X3F eingebettete jpeg Voransicht ohne SPP-Processing:

2013-10-25_221745.jpg

Wisniewski empfiehlt als Eigenbau-Strategie für einen Foveon-RAW-Konverter auf die Rekonstruktionsalgorithmen von Paul Harrison auf Basis seiner Doktorarbeit entwickelt hat...

http://www.logarithmic.net/pfh/
http://www.logarithmic.net/pfh/publications

Harrison hat auch den "Resynthesizer" (manche kennen ihn sicher als gimp-Plugin) programmiert, der in etwa dem Werkzeug für "bereichssensitive Füllen" eines bekannten Softwareherstellers entspricht.

Das Ganze natürlich im Spitzlichter-Kontext als Rekonstruktionswerkzeug physikalisch nicht in der Datenbank registrierter Sensor-Readouts (Stichwort Fingerabdrücke).

Was bedeutet so eine Rekonstruktion "nicht kartografierter" Farbsignal-Tripel, sofern seine Aussagen richtig sind? Richtig: Es werden an solchen Stellen Farbwerte geschätzt.

3.)
Er spricht über etwas, das er Rotkanalschärfung nennt.
Hier hängt er mich allerdings ab.

Er behauptet, dass die Interpolation nach 1.) nicht ausreicht um bei der "Schärfung der Rotkanals" keine Abweichungen in orange gelb und grün zu erhalten.
Er schlägt hierfür vor, das Spektum in 50nm-Bereiche zu unterteilen und mit unterschiedlichen Radien zu schärfen...

Kann sein, aber da spricht ein Softwareentwickler aus seinem persönlichen Erfahrungsnähkästchen. Ich kann so etwas nicht logisch nachhalten.

Ich glaube aber, dass dieser Passus nicht sonderlich relevant ist, um ein Grundverständnis für den Foveon zu erhalten.

-----
Soweit mein Verständnis zu dem, was im Wisniewski-Link steht.

Für mich am interessantesten ist Passus 1.). Er räumt auf mit der Mähr des vollfarbsehenden Foveons. Aber man sieht ja auch an den Foveon-Endergebnissen, dass man die Sensorphysik mit vernünftigen Algorithmen und Datenbanken bestens beherrschen kann.

Grüße,
Oz
oz75 ist offline  
Alt 25.10.2013, 21:47   #41
Klaus-R
Moderator

Klaus-R's Ausrüstung
 
Benutzerbild von Klaus-R
 
Beiträge: 15.807
Blinzeln

Meinen allerherzlichsten Dank für diese sehr anschauliche auf meinen Horizont reduzierte Ausführung des referenzierten Postings!:kl atschen:

Auch hier würde ich Dich bitten, diesen Post noch einmal in einem separtaten Thread zu sichern .... "Funktionsprinzip Foveon X3 Sensortechnik oder so ähnlich!

Die Info mit der Datentripel-Datenbank hinsichtlich der Zuordnung von Farbwerten je Pixel ist mir völlig neu, ist aber sehr nachvollziehbar. Wie man dann aber auch noch einzelne Sensoren jeweils auskalibriert kriegt, muss fast noch spannender sein.

Ich erinnere mich an einen Fall, dass mal ein User eine andere Hauptplatine in eine SD10 eingebaut hatte und anschließend deutlich abweichende Farben resultierten.

Deutlich wird auf jeden Fall, welch enormer Rechenaufwand wohl wirklich erforderlich ist, um letztlich aus all der Datenflut ein Bild zu generieren.

Dass Fremdhersteller eben davor zurückschrecken, wird so einsichtig.
SIGMA müsste sich also wohl kooperativ verhalten und wenn sie schlau sind, dann rücken sie freiwillig die Kenne heraus ... genau, wie Du das ja schon angedacht hast.

Vielen Dank!

Klaus
Klaus-R ist offline  
Alt 25.10.2013, 21:54   #42
Stoneage
profimässiger Knipser

Stoneage's Ausrüstung
 
Benutzerbild von Stoneage
 
Beiträge: 903
Standard

Danke für die Erläuterungen Oz.
Deine weiteren Ausführungen tragen erheblich zu einem besseren Verständnis Wisniewskis Aussagen bei.

Dass Sigma bei den Highlights trickst habe ich schon andernorts als Vermutungen vernommen. So ist der Farbwert der (ausgebrannten) Lichter unter Umständen "erfunden" aber trotzdem noch eine Art Zeichnung vorhanden. Da es sich eh um eine sehr helle, überbelichtete Stelle handelt (z.B Himmel an der Grenze zum ausbrennen) empfinden wir das Resultat oft als natürlich.

Nehmen wir an, es sei so...warum aber ist genau dieser Punkt als Negativ-Beispiel erwähnt, während Bayer hier besser sein soll, wo in der Praxis, zumindest bei der älteren Generation Bayer-Sensoren, dort nur noch zeichnungsloses Weiss zu sehen war wo Foveon zumindest noch irgend eine Art Zeichnung rekonstruieren konnte?

Bei Punkt 3. Schärfung des Rotkanals, fällt mir ein, dass ich einmal Roland Karlsson (Entwickler der X3F Tools) 2-3 Files geschickt habe zur Analyse meiner Sigma DP1 Merrill Bilder, die unter deutlichem Banding (Streifen-Rauschen) litten.
Da es mit seinem Tool möglich ist, die 3 Sensorschichten separat auszulesen, war augenfällig, dass das Banding nur in Sensor-Schicht 1 (blau) vorhanden war...dafür wies jede weitere Schicht mehr Rauschen auf und die unterste Schicht (rot) war sehr unscharf.
Mangels Wissen kann ich das nun nicht zu einem Fazit bringen, aber hier ist durchaus irgendwo ein Hund begraben.
Stoneage ist offline  
Alt 25.10.2013, 22:05   #43
Klaus-R
Moderator

Klaus-R's Ausrüstung
 
Benutzerbild von Klaus-R
 
Beiträge: 15.807
Standard

Stichwort "unscharfer" Rotkanal .... was technisch gesehen absolut einleuchtend ist, da tieferes Eindringen in die Sensorschichten zu Streueffekten führen kann ....

Ich habe auch nie wirklich verstanden, wie die Foveon Technik mit den zum Rand hin immer schräger einfallenden Lichtstrahlen zurecht kommt?! Übersteigt da am Sensorrand nicht die Schrägeinstrahlung irgendwann den Pixelpitch?! Wie wird dann jedem Pixel der exakt genaue Farbwert zugeordnet?

Man sieht den Bildergebnissen diese Problematik zumindest nicht an.

Grüße

Klaus
Klaus-R ist offline  
Alt 25.10.2013, 22:09   #44
Stoneage
profimässiger Knipser

Stoneage's Ausrüstung
 
Benutzerbild von Stoneage
 
Beiträge: 903
Standard

Zitat:
Zitat von Klaus-R Beitrag anzeigen
Ich habe auch nie wirklich verstanden, wie die Foveon Technik mit den zum Rand hin immer schräger einfallenden Lichtstrahlen zurecht kommt?! Übersteigt da am Sensorrand nicht die Schrägeinstrahlung irgendwann den Pixelpitch?!
Wird das nicht mit den Mikrolinsen gelöst?
Die SD9 mit ihren Riesenpixeln hatte noch keine, doch irgendwann wurde das unausweichlich.
Stoneage ist offline  
Alt 25.10.2013, 22:17   #45
Klaus-R
Moderator

Klaus-R's Ausrüstung
 
Benutzerbild von Klaus-R
 
Beiträge: 15.807
Standard

Zitat:
Zitat von Stoneage Beitrag anzeigen
Wird das nicht mit den Mikrolinsen gelöst?
Die SD9 mit ihren Riesenpixeln hatte noch keine, doch irgendwann wurde das unausweichlich.
Hmmm .... möglich, dass das am Sensorrand sogar die schrägen Randstrahlen auf den "Punkt" bringt.

Insgesamt reduzieren die Mikrolinsen die Pixelschärfe des Foveon ja leider etwas, was im Vergleich SD9/SD10 erkennbar ist.

Grüße

Klaus
Klaus-R ist offline  
Alt 25.10.2013, 23:56   #46
Robert
Moderator

Robert's Ausrüstung
 
Benutzerbild von Robert
 
Beiträge: 9.946
Standard

Zitat:
Zitat von Stoneage Beitrag anzeigen
Danke für die Erläuterungen Oz.
Deine weiteren Ausführungen tragen erheblich zu einem besseren Verständnis Wisniewskis Aussagen bei...
Ich schließe mich dem Dank an Oz gerne an

Mir bleibt im Zusammenhang jedoch unklar, warum es auch bei den DPs der ersten Serien (ohne analogem Front End) eher zum Blow-out als z.B. bei der SD14 kommt: sollte man nicht davon ausgehen, dass Sigma die Software ihrer Kameras (mit vergleichbarem Entwicklungsstand) u.a. zur Bewältigung von Highlights mit gleichen Algorithmen programmiert? Es wäre wohl kaum wirtschaftlich, bei gleichen Sensoren quasi das Rad an dieser Stelle immer wieder neu erfinden zu müssen.
Robert ist offline  
Alt 26.10.2013, 00:49   #47
Stoneage
profimässiger Knipser

Stoneage's Ausrüstung
 
Benutzerbild von Stoneage
 
Beiträge: 903
Standard

Hallo Robert

Ist das denn wirklich der Fall? Einen derartigen Vergleichstest habe ich diesbezüglich nie gemacht oder gesehen. Die Belichtungsmessung dürfte hier wohl noch viel entscheidender sein. Möglicherweise bieten die ersten DP's etwas weniger Spielraum in den Lichtern gegenüber der SD14, dafür ein besseres Rauschverhalten in den Schatten.
Ich denke, hier hat der Foveon im Laufe der Zeit eindeutige, beweisbare Fortschritte gemacht, während sich bei den Highlights die Geister etwas scheiden.

Ich habe vor einiger Zeit den Dynamik Umfang der SD14 und SD1 untersuchen wollen. Leider ist es mir nicht geglückt, ein aussagekräftiges Ergebnis zu erhalten. Die unterschiedliche Sensorgrösse, wechselnde Lichtverhältnisse etc. haben das Ergebnis zu stark beeinflusst. Tendenziell hatte die SD14 auch gegenüber der SD1, bei gleicher Belichtungszeit, mehr Spielraum in den Lichtern, allerdings auch heftige Abweichungen bei den Farben (Farbstiche)
Bei Unterbelichtung war die SD1 haushoch überlegen. Insgesamt aber ist der Dynamikumfang der beiden Kameras wohl recht vergleichbar. (Was für die SD1 trotz ihrer kleinen Pixel spricht)
Verbesserungspotenzial ist also hier noch möglich. Bei einem Vollformat Foveon mit 20-24 MP erst recht.
Stoneage ist offline  
Alt 26.10.2013, 06:40   #48
kruegchen
Multitalent

kruegchen's Ausrüstung
 
Beiträge: 1.301
Standard

Hm, wenn man das alles so liest??? Da man weis wie tief das Licht in das Silizium eindringt und welche Wellenlängen wo ausgelesen werden können, gibt es unendlich viele Werte zur Berechnung. Sigma hat sich also auf wesentliche Werte beschränken müssen, weil die Rechenpower Grenzen setzte.

Theoretisch könnten Mischfarben für die Genauigkeit berechnet werden. Das Übersteigt wohl derzeit die Rechenfähigkeiten der internen Prozessoren, welcher uns ja die RAW Daten zur Verfügung stellt. Die Überbelichtung wird bei Signalsättigung scheinbar wirklich geschätzt (vermutlich mit Wahrscheinlichkeistrechnungen). Diese wird ja auch in der Prozessortechnik verwendet und immer mehr verfeinert. Die Bayersensoren nutzen diese Methode ja auch. Beim Foveon müsste aber deutlich genauer gerechnet werden können. Es sind viel mehr Werte Vorhanden. Jeder Wert wäre also in der Theorie annähernd berechenbar.

Mit mehr Rechenpower in der Kamera sollte da bezüglich Rauschen und Farben deutlich mehr zu machen sein. Die Fortschritte sieht man ja in den neuen Kameras. Nun ist auch erklärlich, warum der Foveon soviel Strom benötigt. Die aussage Trifft wohl besser auf die stark ausgelasteten Prozessoren zu. Je besser diese werden, desto besser müsste theoretisch die Genauigkeit des Foveons werden. Voraussetzung ist, dass man noch mehr Werte in die Berechnung einfließen lassen kann. Dagegen ist die Berechnung der Bayermatrix ein Klax. Das Thema ist wirklich sehr komplex.

Die Entwicklung birgt viel Potenzial in den richtigen Händen. Da sind wir wieder bei dem Thema Sigma und mögliche Partnerschaften.

Ich glaube auch nicht, dass andere Sensoren mehr Dynamik generieren. Das Signal ist physikalisch bei allen Sensoren gleich am Ende. Theoretisch ist es aber möglich zwei oder mehr Bilder in schneller Folge mit über und Unterbelichtung zu speichern. Diese werden dann verrechnet. Fuji macht das scheinbar auch in den neuen Kameras. Das benötigt wieder Rechenpower, welche beim Bayersenor wohl noch übrig ist.

Das Leben ist scheinbar doch nur Mathematik.

Gruß Sven
kruegchen ist offline  
Alt 26.10.2013, 07:23   #49
oz75
Moderator

oz75's Ausrüstung
 
Benutzerbild von oz75
 
Beiträge: 5.237
Standard

Ich freu mich, das ihr etwas mit dem Erklärungsverssuch anfangen könnt! Auch euch vielen Dank für die weitere Diskussion über den Rotkanal und die wellenlängenabhängige Schärfung, etc...

So kommt einiges zusammen und macht die Angelegenheit immer transparenter!

Zitat:
Zitat von Stoneage Beitrag anzeigen
Dass Sigma bei den Highlights trickst habe ich schon andernorts als Vermutungen vernommen. So ist der Farbwert der (ausgebrannten) Lichter unter Umständen "erfunden" aber trotzdem noch eine Art Zeichnung vorhanden. Da es sich eh um eine sehr helle, überbelichtete Stelle handelt (z.B Himmel an der Grenze zum ausbrennen) empfinden wir das Resultat oft als natürlich.

Nehmen wir an, es sei so...warum aber ist genau dieser Punkt als Negativ-Beispiel erwähnt, während Bayer hier besser sein soll, wo in der Praxis, zumindest bei der älteren Generation Bayer-Sensoren, dort nur noch zeichnungsloses Weiss zu sehen war wo Foveon zumindest noch irgend eine Art Zeichnung rekonstruieren konnte?
Ich teile da die Bedenken. Ich denke, Wisniewski sieht das vielleicht sehr aus der Softwareentwickler-Perspektive.

Das, was zu Problemen im Signal-Rausch-Verhältnis der einzelnen Sensorlagen-Readouts führt, nämlich die Dicke des Foveon (3 Schichten anstelle von einer Schicht beim Bayer), sollte doch zu Vorteilen im Highlights-Kontext führen.

Die tieferliegenden Schichten haben letztendlich vorgeschaltete Schichten, die wie eine Art ND-Filter wirken.

Wenn nun ein Kanal ausbrennt, so sollte es -bei geschickter Programmierung- einfacher sein, aus den restlichen Signalen etwas sinnvolles zu rekonstruieren.
oz75 ist offline  
Alt 26.10.2013, 07:57   #50
oz75
Moderator

oz75's Ausrüstung
 
Benutzerbild von oz75
 
Beiträge: 5.237
Standard

Zitat:
Zitat von oz75 Beitrag anzeigen
Ich freu mich, dass
Ups.

Hier mal ein Beispiel für die algorithmengestütze Highlight-Rekonstruktion unter SPP (SD1-Bild):

500k_2013-10-26_084939.jpg

500k_2013-10-26_085016.jpg

Gruß,
Oz
oz75 ist offline  
Alt 26.10.2013, 08:43   #51
Stoneage
profimässiger Knipser

Stoneage's Ausrüstung
 
Benutzerbild von Stoneage
 
Beiträge: 903
Standard

Zitat:
Zitat von oz75 Beitrag anzeigen
Hier mal ein Beispiel für die algorithmengestütze Highlight-Rekonstruktion unter SPP (SD1-Bild):
Ich habe auch solche Bilder, aber ich weigere mich noch zu glauben, dass es sich bei der zusätzlichen Information um berechnete, "falsche" Information handelt.
Schaut mal dieses Beispiel:
Links Screenshot des eingebetteten JPG, rechts nach der SPP Entwicklung, und unten ein 100% crop der einst überbelichteten Hautstelle. Das kann nicht alles "erfunden" sein.
spp_highlights.jpg
Stoneage ist offline  
Alt 26.10.2013, 09:13   #52
oz75
Moderator

oz75's Ausrüstung
 
Benutzerbild von oz75
 
Beiträge: 5.237
Standard

Zitat:
Zitat von Stoneage Beitrag anzeigen
Das kann nicht alles "erfunden" sein.
Absolut nicht. Da liegen Sensorkanalinformationen zugrunde (man sieht es an den Hautporen und Pigmentfleckchen).

Ob von allen Kanälen oder teilrekonstruiert, ließe sich wahrscheinlich nur dann feststellen, wenn es gelänge, die "R", "G" und "B"-Signale aus dem X3F - ohne Postprocessorzugriff herauszuschreiben. Hast Du mal Monoveon darauf angesetzt?

Wieterhin: Könntest Du noch sagen um welche Kamera und welche Software es sich handelt?

Grüße,
Oz
oz75 ist offline  
Alt 26.10.2013, 09:31   #53
Stoneage
profimässiger Knipser

Stoneage's Ausrüstung
 
Benutzerbild von Stoneage
 
Beiträge: 903
Standard

Sorry, war etwas quick and dirty

Das ist die DP2 Merrill und SPP 5.5.2.

Einzeln habe ich die Kanäle noch nicht aus dem RAW extrahiert. Ich tue mich da noch etwas schwer ein geeignetes Programm zu finden.

Danke für den Tipp mit Monoveon.
Stoneage ist offline  
Alt 26.10.2013, 09:42   #54
oz75
Moderator

oz75's Ausrüstung
 
Benutzerbild von oz75
 
Beiträge: 5.237
Standard

Zitat:
Zitat von Stoneage Beitrag anzeigen
Sorry, war etwas quick and dirty
No worries.

Zitat:
Zitat von Stoneage Beitrag anzeigen

Das ist die DP2 Merrill und SPP 5.5.2.
Danke für den Tipp mit Monoveon.
Das könnte schwierig werden mit Monoveon. Ich habe es gerade auf das Fahrradfoto angesetzt -- die SD1-Merrill-Dateien werden leider nicht erkannt.

Ich denke, da helfen Experimente mit dem Monochrom-Modus weiter.
oz75 ist offline  
Alt 26.10.2013, 09:56   #55
oz75
Moderator

oz75's Ausrüstung
 
Benutzerbild von oz75
 
Beiträge: 5.237
Standard

Zitat:
Zitat von oz75 Beitrag anzeigen
Ich denke, da helfen Experimente mit dem Monochrom-Modus weiter.
Vielleicht so:

Ausgangsstellung
2013-10-26_105103.jpg

Max Rotkanal
2013-10-26_105132.jpg

Max Grünkanal
2013-10-26_105159.jpg

Max Blaukanal
2013-10-26_105239.jpg

Im Beispiel sieht man gut, dass es im "Hummer-Bild" stellenweise den "Rotkanal" weggebrannt hat. Es zieht sich jedoch stellenweise bis zum Blaukanal (Rahmen). Dort kann dann auch unter SPP keine Rekonstruktion mehr erfolgen. Es ist einfach nichts mehr da.

Aber solange irgendwo noch Farbkanalinformationen vorliegen, schlägt sich SPP wacker.

Es wäre hochinteressant, wenn Du ähnliches an Deinem Hautphoto ausprobieren könntest, Stoneage.
oz75 ist offline  
Alt 26.10.2013, 10:07   #56
Stoneage
profimässiger Knipser

Stoneage's Ausrüstung
 
Benutzerbild von Stoneage
 
Beiträge: 903
Standard

Zitat:
Zitat von oz75 Beitrag anzeigen
Es wäre hochinteressant, wenn Du ähnliches an Deinem Hautphoto ausprobieren könntest, Stoneage.
Hatte ich bereits
Das Hautphoto ist aber diesbezüglich sehr unspektakulär. Jeder Kanal hat noch Zeichnung, wobei der Rotkanal am hellsten wird, ohne jedoch auszufressen.
Das embedded JPG scheint wirklich eine sehr rudimentäre Entwicklung zu sein.
Stoneage ist offline  
Alt 26.10.2013, 10:26   #57
oz75
Moderator

oz75's Ausrüstung
 
Benutzerbild von oz75
 
Beiträge: 5.237
Standard

Zitat:
Zitat von Stoneage Beitrag anzeigen
Hatte ich bereits
Das Hautphoto ist aber diesbezüglich sehr unspektakulär. Jeder Kanal hat noch Zeichnung, wobei der Rotkanal am hellsten wird, ohne jedoch auszufressen.
Ok.

Tja, wo alle Signaldaten vorhanden sind, kann ich nichts ausgefressen sein.

Das mit den jpegs ist halt so eine Sache.

2013-10-26_111802.jpg

2013-10-26_111823.jpg

2013-10-26_112154.jpg

Ich denke, die Merrills sind überaus gutmütig, was die Highlights betrifft.
oz75 ist offline  
Alt 26.10.2013, 10:56   #58
Blende8
Hobby-Fotograf

Blende8's Ausrüstung
 
Beiträge: 35
Standard

An eurer hochinteressanten Diskussion kann ich mich wegen fehlenden Wissens nicht beteiligen.
Ich möchte aber an einem Beispiel zeigen, wieviel Zeichnung noch bei einem eigentlich hoffnungslos überbelichteten Foto nach der Bearbeitung in SPP noch vorhanden ist.
Das Bild hat mein Enkel mit der DP 2 Merrill gemacht, reine Übungssache.

Das Ergebniss hatte ich so nicht erwartet.

Freundlichst Heinz

Blüten kl..jpg Blüten 2.jpg
Blende8 ist offline  
Alt 26.10.2013, 20:02   #59
Frankg
Foto-Experte

Frankg's Ausrüstung
 
Beiträge: 563
Standard

In dem angesprochenen Textbeitrag steht mit keinem Wort, dass der Foveon-Sensor früher ausbricht als Bayer-sensoren, nur bösartiger. Insofern kein Widerspruch zu den Erfahrungen.
Wenn im Vorschaubild keine Zeichnung mehr zu sehen ist, muss das auch nicht bedeuten, dass die Lichter ausgebrannt sind. Sie sind nur oberhalb der Darstellungsgrenze eines Monitors.


Gruß

Frankg
Frankg ist offline  
Alt 26.10.2013, 20:29   #60
oz75
Moderator

oz75's Ausrüstung
 
Benutzerbild von oz75
 
Beiträge: 5.237
Standard

Zitat:
Zitat von Frankg Beitrag anzeigen
In dem angesprochenen Textbeitrag steht mit keinem Wort, dass der Foveon-Sensor früher ausbricht als Bayer-sensoren, nur bösartiger. Insofern kein Widerspruch zu den Erfahrungen.
Hallo Frank,

es ist folgende Aussage, die meines Erachtens fragwürdig ist:

"On a Foveon, when you blow one photodiode channel, you lose all three readout channels in that pixel."

Das stimmt so wohl nicht, wie man unter #50 und #55 sehen kann. Im Beispielbild ist der Rotkanal im Bereich des Korbes ausgefressen, die anderen Kanäle weiterhin intakt.

Weiter noch: Das Gelb wird durch einen Rekonstruktionsalgorithmus hergestellt, wenn man den Regler der Spitzlichterkorrektur entsprechend bewegt.

Grüße,
Oz
oz75 ist offline  
Antwort

Themen-Optionen
Ansicht


Ähnliche Themen
Thema Autor Forum Antworten Letzter Beitrag
Chemiepark Bayer Dormagen. NAVIGATOR 755 Nacht 3 01.02.2013 16:53
Bryce Bayer, Erfinder des Bayer Filter, gestorben Eule News rund um das Thema Bilder & Fotografie 2 22.11.2012 19:58
Foveon Sensor kruegchen Sigma Digitalkameras 21 13.11.2009 17:09
(Makro) Foveon Ha Si Ti Sigma Bilder besprechen 8 22.06.2009 06:05


Alle Zeitangaben in WEZ +1. Es ist jetzt 12:58 Uhr.


vBulletin® 2000-2010, Jelsoft Enterprises Ltd.

SEO by vBSEO 3.6.0 ©2011, Crawlability, Inc.