JannelieA
Aktives Mitglied
Moin zusammen,
ich nutze für meine Bildbearbeitung idR einen sehr betagten Mac Pro mit Windows 10 und MacOS High Sierra. Auf beiden ist DSS 4.1.1 32 bit installiert. Auf dem Mac via Wine Emulator.
Und jetzt wird es kurios.
Ich habe ein Testszenario erstellt das wie folgt ausschaut: 96 DNGs a 15mb 6000x4000px.
Einstellungen in DSS sind Schnittmengen-Modus, alle CPU-Kerne, Sigma Kappa Clipping 2.00/5, keinerlei Zwischenbilder, keine Kosmetik.
In Windows brauche ich dafür (Registrierung/Stacking/Berechnung des fertigen Bildes): 6:35 / 28:13 / 0:33 Minuten
Mac OS (Emuliert!): 8:10 / 6:30 (!) / 13:35 (!!) Minuten.
Mehrmals durchgeführt, Abweichung von wenigen Sekunden. Die 64bit Version bringt keinen Unterschied.
Die brennenden Fragen sind,
1. wieso benötigt Windows 28:13 Minuten für das Stacken, während Mac OS nichtmal ein viertel der Zeit benötigt?
2. Ist 28 Minuten überhaupt ein gängiger Wert für dieses Szenario?
3. Dass Mac OS im Gegenzug für die finale Berechnung anstatt 33 Sekunden 13 Minuten braucht ist natürlich auch beachtlich, aber könnte hier auf die Emulation geschoben werden.
Unterm Strich ist Mac OS mit 28 zu 35 Minuten knapper Sieger. Auf einem Macbook übrigens gleiches Endergebnis.
Erklärungsversuche?
ich nutze für meine Bildbearbeitung idR einen sehr betagten Mac Pro mit Windows 10 und MacOS High Sierra. Auf beiden ist DSS 4.1.1 32 bit installiert. Auf dem Mac via Wine Emulator.
Und jetzt wird es kurios.
Ich habe ein Testszenario erstellt das wie folgt ausschaut: 96 DNGs a 15mb 6000x4000px.
Einstellungen in DSS sind Schnittmengen-Modus, alle CPU-Kerne, Sigma Kappa Clipping 2.00/5, keinerlei Zwischenbilder, keine Kosmetik.
In Windows brauche ich dafür (Registrierung/Stacking/Berechnung des fertigen Bildes): 6:35 / 28:13 / 0:33 Minuten
Mac OS (Emuliert!): 8:10 / 6:30 (!) / 13:35 (!!) Minuten.
Mehrmals durchgeführt, Abweichung von wenigen Sekunden. Die 64bit Version bringt keinen Unterschied.
Die brennenden Fragen sind,
1. wieso benötigt Windows 28:13 Minuten für das Stacken, während Mac OS nichtmal ein viertel der Zeit benötigt?
2. Ist 28 Minuten überhaupt ein gängiger Wert für dieses Szenario?
3. Dass Mac OS im Gegenzug für die finale Berechnung anstatt 33 Sekunden 13 Minuten braucht ist natürlich auch beachtlich, aber könnte hier auf die Emulation geschoben werden.
Unterm Strich ist Mac OS mit 28 zu 35 Minuten knapper Sieger. Auf einem Macbook übrigens gleiches Endergebnis.
Erklärungsversuche?