Zur 770 vmtl nicht, zu dem Ami-Preisen ist die 750 die schnellere Karte auf den Euro (oder dort halt Dollar). Ich weiß nicht ob da Preis/Leistung eine Rolle spielt, aber eigentlich ist es immer noch die treffsicherste Metrik für Grafikkartenvergleiche.Frank Glencairn hat geschrieben: ↑Do 06 Apr, 2023 11:56 Ich versteh sowieso nicht warum jemand ne teure und langsamere A770 ner billigeren und schnelleren 3600 vorziehen sollte.
image_2023-04-06_115643098.png
Nein, schlimm ist die Missionierung auf Basis falscher Fakten.dienstag_01 hat geschrieben: ↑Do 06 Apr, 2023 14:36 Ist das denn wirklich so schlimm, dass jemand eine Grafikkarte von Intel kauft und damit zufrieden ist.
Puh.
Ah, ja, nagut, Missionierung ist in diesem Forum wirklich ein nogo ;)MK hat geschrieben: ↑Do 06 Apr, 2023 14:40Nein, schlimm ist die Missionierung auf Basis falscher Fakten.dienstag_01 hat geschrieben: ↑Do 06 Apr, 2023 14:36 Ist das denn wirklich so schlimm, dass jemand eine Grafikkarte von Intel kauft und damit zufrieden ist.
Puh.
Die da wären?MK hat geschrieben: ↑Do 06 Apr, 2023 14:40Nein, schlimm ist die Missionierung auf Basis falscher Fakten.dienstag_01 hat geschrieben: ↑Do 06 Apr, 2023 14:36 Ist das denn wirklich so schlimm, dass jemand eine Grafikkarte von Intel kauft und damit zufrieden ist.
Puh.
Für neueste Linux Treiber, guck mal auf der Intel Arc Seite nach.cantsin hat geschrieben: ↑Sa 04 Mär, 2023 15:03 Sehe ich das richtig, dass sich die Diskussion hier mittlerweile zu Nvidia vs. AMD verschoben hat?
Gibt's denn schon irgendwelche Praxiserfahrungen mit den Intel Arcs in Resolve?
Aus meiner Linuxer-Sicht ist bei denen attraktiv, dass da der Treibersupport seit den letzten Linux-Kernel-Versionen out-of-the-box und offiziell von Intel entwickelt im Betriebssystem sitzt und man sich nicht mehr mit Nvidias proprietären (und u.a. wegen eingeschränkter Wayland-Kompatibilität problematischen) Treibern rumschlagen muss....
Preis-Leistung ist für Leute wie markusG egal.
Dankedienstag_01 hat geschrieben: ↑Do 06 Apr, 2023 14:36 Ist das denn wirklich so schlimm, dass jemand eine Grafikkarte von Intel kauft und damit zufrieden ist.
Puh.
Du hast die 147% von Hyper Encoding übersehen.DKPost hat geschrieben: ↑Mi 05 Apr, 2023 06:05Also 3% schneller als eine RTX3060 ist jetzt nicht gerade beeindruckend.DaCarlo hat geschrieben: ↑Mi 05 Apr, 2023 01:30
Es gibt neue updates und Empfehlungen wie man seinen Intel Rechner, (siehe oben Ausstattung)
bestmöglich einstellen und updaten bzw. beachten soll.
Mein Rechner läuft prima mit Resolve und Edius X, wobei die K Prozessoren mit Quick Sync, auf 2 x 27 Zoll
Bildschirmen, eine gute Zusatz Leistung erbringen.
Übersehen hat hier keiner was, Screenshots machen will halt gelernt sein:
Leider ist die bei GPU Compute über 50% langsamer als die 4080 und wenn man darauf hauptsächlich angewiesen ist bringt das nichts... und bei den aktuellen Strompreisen zwei Karten in den Rechner stecken? Da hat man abgesehen von der Zeitersparnis die Mehrkosten für die 4080 schnell wieder raus...
Nö, es gibt halt Leute die kein Cherry Picking betreiben und Preis/Leistung eher ganzheitlich betrachten. Das mit der Markenkritik kann trotzdem von dir ;)
Stimmt doch gar nicht, was du da erzählst.MK hat geschrieben: ↑Fr 07 Apr, 2023 05:58Leider ist die bei GPU Compute über 50% langsamer als die 4080 und wenn man darauf hauptsächlich angewiesen ist bringt das nichts... und bei den aktuellen Strompreisen zwei Karten in den Rechner stecken? Da hat man abgesehen von der Zeitersparnis die Mehrkosten für die 4080 schnell wieder raus...
Und die 4070 Ti gibt es ja auch noch, immerhin auch fast 30% schneller bei GPU Compute als die 6950 XT, dafür 14% langsamer bei DirectX 11... da skaliert der Preis aber auch deutlich linearer mit der Leistung als bei der 4080.
Ich würde mir aber momentan falls nicht gerade was kaputt geht auch keine neue Karte kaufen da die Preise zu dynamisch sind, gleiches gilt für SSDs bei denen mittlerweile im 2 TB Bereich der freie Fall eingeleitet ist und die 4 TB Modelle hoffentlich bald folgen.
Du meinst das Märchen erzählen über Mittelklassekarten, die die High End-Konkurrenz weit hinter sich lassen. :)
Was GPU Compute ist weißt Du anscheinend nicht, schade.
Nein, Leute die Screenshots posten wo wesentliche Elemente abgeschnitten sind, und dann behaupten dass man den Teil der fehlt wohl übersehen hätte. LOL
Das ist nur ne Metrik, aber in der Realität irrelevant, weil selbst ne uralte GTX980 raw schon schnell genug für alles abspielen konnte.
Dummerweise skaliert das halt nicht so einfach bei Video Anwendungen.
Was meinst du wohl, wie eine RTX 4090 in einem Rechner mit einer alten i3-CPU abschneiden würde?
Resolve skaliert nicht schlecht.Frank Glencairn hat geschrieben: ↑Fr 07 Apr, 2023 14:30Das ist nur ne Metrik, aber in der Realität irrelevant, weil selbst ne uralte GTX980 raw schon schnell genug für alles abspielen konnte.
Dummerweise skaliert das halt nicht so einfach bei Video Anwendungen.
Was hat das mit dem abgeschnittenen Screenshot-Fail weiter oben zu tun? Richtig, nichts :-)iasi hat geschrieben: ↑Fr 07 Apr, 2023 14:37 Was meinst du wohl, wie eine RTX 4090 in einem Rechner mit einer alten i3-CPU abschneiden würde?
Die Arc Pro entfaltet im Zusammenspiel mit einem Intel-K-Prozessor nochmal mehr Leistung.
Man muss also durchaus Systeme differenziert betrachten.
Bei in Resolve schneiden die 4000er mit Raw auf der Timeline z.B. nicht gut ab.
Intel Arc bietet hingegen hardwarebeschleunigte Kodierung für AV1.
Hier zu behaupten die teuren 4000er seien generell immer die Schnellsten, stimmt nun einmal nicht.
Was sie aber sind: Hochpreisig.
Nö, eine 980 spielt raw im Schlaf ab. Und ja, wir reden hier von deniasi hat geschrieben: ↑Fr 07 Apr, 2023 14:48
Was du hier jetzt nicht anfangen musst, ist Testergebnisse, die dir nicht ins Konzept passen, als irrelevant darzustellen.
Eine GTX980 kommt sehr wohl schnell ans Limit, wenn Raw auf der Timeline ist.
Was nicht auffällt, ist bei H264 ein Unterschied zwischen 100fps und 120fps.
48fps bei Raw bedeutet bei 50p hingegen schon rucklige Darstellung.
Du hast auch bei RedRaw einen Unterschied beim Export zwischen CPU und GPU.cantsin hat geschrieben: ↑Fr 07 Apr, 2023 14:39 Die heute üblichen/verfügbaren Benchmarks sind halt auch nicht so praxisnah, zumindest nicht für Videoanwendungen.
h264/h265 GPU-Encoding-Benchmarks sind zwar nice to have, aber eigentlich müsste da auch die Bildqualität des Outputs gemessen werden. I.d.R. sind diese GPU-basierten Encodings ja nur für schnellen Turnaround zu gebrauchen und erreichen nur die Bildqualität, die ein langsameres CPU-basiertes Encoding (z.B. mit ffmpeg/Handbrake) auch mit 50% der Dateigröße hinkriegt.
Und Formate wie Braw fordern fast nichts von der GPU.
Aussagekräftig wäre:
- Abspielperformance/FPS von technisch wirklich anspruchsvollem Videomaterial wie 6K/8K Open Gate 10bit 4:2:2 h265 in den Timelines von Resolve, Premiere & Co.
- Abspielperformance/FPS von anspruchsvollen Plugins wie Neat Video Pro und/oder Dehancer (mit Settings, die die GPU fordern).
- Zunehmend auch: Renderperformance von KI-Bildgeneratoren wie Stable Diffusion, wo dann tatsächlich GPU Compute die entscheidende Rolle spielt, bzw. 50% weniger GPU Compute-Performance auch ungefähr doppelt so lange Renderzeiten zur Folge hat...
Äh - nö.Frank Glencairn hat geschrieben: ↑Fr 07 Apr, 2023 15:32Nö, eine 980 spielt raw im Schlaf ab. Und ja, wir reden hier von deniasi hat geschrieben: ↑Fr 07 Apr, 2023 14:48
Was du hier jetzt nicht anfangen musst, ist Testergebnisse, die dir nicht ins Konzept passen, als irrelevant darzustellen.
Eine GTX980 kommt sehr wohl schnell ans Limit, wenn Raw auf der Timeline ist.
Was nicht auffällt, ist bei H264 ein Unterschied zwischen 100fps und 120fps.
48fps bei Raw bedeutet bei 50p hingegen schon rucklige Darstellung.
realworld relevanten FPS wie 24/25, nicht von irgendwelchen Phantasiewerten.
Kein Mensch hat ne 120 fps Timeline.
Und selbst bei Youtube Kindergarten Timelines mit 50fps merkst du keinen Unterschied zwischen einer Intel und ner RTX 4090.
Was hast du dann davon, daß die Intel theoretisch noch ein bisschen mehr könnte - alles völlig irrelevante Werte.
50fps sind Sendestandard.Frank Glencairn hat geschrieben: ↑Fr 07 Apr, 2023 16:26 25/24 fps sind nicht vorbei sondern der Industriestandard hier.
50 fps sind weder ein Broadcast, noch ein Kino Standard, 50 fps sind gar nix, und damit völlig irrelevant für professionelle Arbeit.
Ja, für 720 (IRT HDF03a 1.1 und IRT HDF03b 1.1) - das haben wir doch hoffentlich längst hinter uns gelassen, oder wie viel drehst du noch ion 720?
Ein weiteres Märchen, daß auch durch ständige Wiederholung nicht wahrer wird.
Spielkinder sind für die Video/Film Produktion völlig irrelevant.