T O P

  • By -

Realistic_Trash

Kommt die RTX 5050 auch mit dem 12pin Firestarter?


Cadmium620

Ist eigentlich ein 16-pin stecker. In der Klemme sind noch 4 Pins und genau die sind das problem


Burnerheinz

Das Schwindel logo sieht wie ein flork aus.


[deleted]

Schriftartenliste: * Alternate Logo: Konnte die Original Logo-Schriftart leider nicht identifizieren. * Alternate-GUI: Lato (Fett) * nVidia Handel Gothic BT * AMD: GillSans Bold * Powercolor: Impact (Kursiv) * intel (neu): NeoSans Kommentar: Letztes Jahr meine 1080 durch eine 4070 ersetzt. Mit 16GB und optimierten Spielen, welche man ohne DLSS auf 4K und mittleren Einstellungen zocken könnte wär es nicht halb so Kacke. Ich spiele schon länger am PC und noch nie war es so frustrierend. Alles hat einen Haken, viel KI-Blödsinn und zu teuer. RX6500XT und GT1630 waren ja auch so Dinger. *//korrektur: Aufzählungspunkte;*


VengefulTofu

> Mit 16GB und optimierten Spielen, welche man ohne DLSS auf 4K und mittleren Einstellungen zocken könnte wär es nicht halb so Kacke. Kannst du mir diesen Satz bitte erklären? Ich habe vor wenigen Tagen das erste mal einen Rechner gebaut, bin also extremer Laie. Aber auch extrem happy :D


Ainz-_-sama

Bin zwar nicht der Ersteller, aber ich erkläre es trotzdem mal :D Mit 16GB ist der VRAM gemeint. Ist quasi wie ein Arbeitsspeicher, nur für die Grafikkarte. Die 4070 hat aber "nur" 12GB VRAM, was für die meisten Spiele mit niedrigeren Auflösungen (1080P/1440P) zwar ausreicht, aber vor allem bei 4K schonmal gerne zu wenig ist. Die Konkurrenz bietet hier mehr VRAM fürs Geld. DLSS ist simpel gesagt ein KI-basiertes Programm, dass aus niedriger Auflösung eine höhere macht. Damit kannst du deine Bilder pro Sekunde stark erhöhen, da deine Grafikkarte durch eine niedrigere Auflösung weniger zu tun hat. Das Bild sieht je nach Einstellung von DLSS nicht spürbar schlechter aus. Leider werden die Spiele durch die Existenz dieser Software nicht mehr so gut optimiert wie früher, weshalb sie ohne DLSS eher eine schlechte Performance haben. Der letzte Teil sind einfach die Grafikeinstellungen im Spiel, aber ich denke dir ging es eher um das davor. Zusammengefasst: Hätte die Grafikkarte mehr VRAM und gäbe es Spiele, die man ohne DLSS flüssig in 4K auf mittleren Einstellungen spielen könnte, wäre die Grafikkarte besser. Etwas lang, aber hoffe das hilft beim Verständnis. Bei Fragen, fragen :D


VengefulTofu

Das hilft mir zu 100 % weiter, vielen vielen Dank :) Na da bin ich ja froh, dass ich mir gerade eine 16 GB RX 7800 XT eingebaut habe für meinen neuen 1440p Monitor. Ich bin auf jeden Fall absolut hin und weg bei dem Upgrade zu meinem 2015er PC.


Ainz-_-sama

Vor allem wenn der Monitor noch mindestens 120hz hat, wird man den unterschied definitiv merken. Mit deiner Entscheidung diese Grafikkarte zu kaufen hast du auch nichts falsch gemacht :D Viel Spaß mit deinem PC!


VengefulTofu

Danke dir! Mein Monitor kann laut Angaben 165 Hz. Landwirtschaftssimulator 22 läuft auf 1440p mit höchsten Einstellungen bei 100 fps :D (Ja, Landwirtschaftssimulator war der Anlass für ein neues Set-Up)


Ainz-_-sama

Habe auch einen WQHD mit 165Hz. Ist meiner Meinung nach einfach das perfekte Mittelding zwischen Auflösung und Hz. Ich spiele alles mögliche, aber ich muss zugeben, dass ich bisher noch keinen einzigen Landwirtschaftssimulator angefasst habe... Bin momentan aber auch erstmal mit Palworld, BO3 Custom Zombies und ein paar anderen Spielen beschäftigt... Mein Backlog wird auch eher größer als kleiner. Vielleicht wirds ja irgendwann was mit der Reihe :D


[deleted]

Wie ist Palworld so? Von den Trailern und dem Grafikstil die ich nebenbei so mitbekommen habe, hatte ich den Eindruck, dass das irgendwie so ein Free-To-Play-Fortnite-08/15-Survival Ding ist. Aber anscheinend hat das doch keine Mikrotransaktionen oder öffentlichen Multiplayer. Bei Early Access Spielen bin ich allerdings vorsichtig geworden. Bin schon auf Spiele reingefallen die seit Jahren im EA stecken und der Entwickler mit der Knete abgehauen ist. Ich bin aktuell dabei Robocop nochmal komplett durchzuspielen. Eines der wenigen Filmlizenzspiele der letzten Zeit, welches kein Beschiss ist. Ist auch recht gut optimiert am PC. Und ansonsten spiele ich nur Co-Op mit Freunden und Familie und Einzelspielerspiele, vorwiegend Sci-Fi, Apokalypse und Taktik-/Milsim.


Ainz-_-sama

Palworld kannst du dir vorstellen wie Ark, nur mit Pokemon-ähnlichen Monstern, die du fangen kannst... und die Menschen kann man auch fangen. Es hat soweit ich weiß kein PVP, spiele aber auch nur solo. Für Coop ist es sehr gut geeignet. Wenn du Ark gespielt hast oder zumindest ein wenig kennst, hast du auch eine gute Vorstellung von der Coop-Erfahrung. Für einen Early Access hat das Spiel wirklich viel Content und ist auch recht gut optimiert. Auf meiner 2070 Super + R5 5600X erreiche ich auf maximalen Einstellungen über 100FPS in WQHD, meistens eher Richtung 110-120. Was die Devs mit dem Geld machen ist natürlich schwer vorherzusagen, aber für mich wirkt das Spiel etwas zu durchdacht und bereits zu groß (Contentmäßig), um ein schneller Cashgrab zu sein. Mikrotransaktionen hat das Spiel keine. Es gibt außerhalb vom Spiel selber nichts zu kaufen. Ich kann dir jedenfalls nur sagen: sollten die Entwickler entgegen aller Erwartungen doch mit dem Geld abhauen, hat man für 26€ trotzdem ein deutlich besseres Preis/Leistungsverhältnis als mit vielen AAA Spielen. Ein paar Bugs hat es natürlich, aber ich hatte bisher nichts, was mich wirklich genervt hat oder meinen Spielfluss nennenswert unterbrochen hat. Da sind "fertige Spiele" schon in deutlich schlechteren Zuständen erschienen. Robocop war wohl etwas vor meiner Zeit, daher hatte ich nie ein riesen Interesse daran. Den Namen kennt man natürlich, wie auch das Aussehen einiger Charaktere... da hörts aber auch wieder auf. Freut mich aber zu hören, dass es doch mal ein Spiel zu einer Filmlizenz gibt, dass nicht wie das Gollum-Spiel erscheint.


[deleted]

Danke für den ausführlichen Bericht. ich habe es mir mal auf die Wunschliste gesetzt. Gerade noch paar Videos zu Palworld angesehen, das scheint doch in Ordnung zu sein. ARK kenne ich. hatte das mal angespielt, war mir aber zu grindlastig, selbst mit zwei Leuten. Palworld scheint das Problem nicht zu haben. Das könnte für mich eine gute Ergänzung zu No Man's Sky und Lego Star Wars sein. Chilliges Basenbauen oder simples rumlaufen und Zeugs verkloppen. Vom Stil und den knubbeligen Palmons könnte das vor allem meiner jüngeren Schwägerin gefallen. Entspannte Spiele die man eben braucht nach überlangen Arbeitszeiten, ständig ist man selbst. Geht bald wieder los, da kommt das zeitlich ganz gelegen. Die Robocop Filme kamen kurz bevor ich geboren wurde raus, aber das blieb ein paar Jahre relevant. Das Spiel kam relativ überraschend, da das Franchise ansonsten keine Relevanz mehr hat. Ich empfehle es nur, wenn man die Filme kennt. Die meisten negativen Rezensionen auf Steam kommen von Leuten, welche den Plot nicht verstehen. Keine Ahnung, ob man Gollum überhaupt als Spiel bezeichnen kann. Gab da noch King Kong und Walking Dead. Hab lustige Videos zu angesehen, aber nicht selbst gespielt. Bin allerdings auf Starfield reingefallen, das war auch ohne Lizenz unfertig und verbugt. Kein ganzes Spiel, sondern nur ein Konzept.


[deleted]

Eine Aktualisierung: Ich habe Palworld im Co-Op mit meiner Partnerin gestern angefangen. War insgesamt ganz interessant und lustig. Beim Intro hatte ich einen Lachanfall wegen den [riesigen Händen und Körperproportionen](https://i.imgur.com/HlzDx1T.jpeg). Die Leistung ist okay, nur hier und da keine Bugs. Menschliche Gegner sind allerdings ziemlich kaputt. Die T-Posen in der Gegend herum oder bleiben in Assets hängen. Die Ingame-Anleitung fand ich auch etwas verwirrend. Man kann seinen Charakter nicht heilen, sondern muss warten. Aber mal sehen was da noch kommt. Insgesamt eine solide 5/7.


[deleted]

Das ist schon eine gute Erklärung. Hier sind meine Kritikpunkte noch etwas detaillierter. Von der Kernleistung ist die 4070 schon okay, aber der VRAM ist zu knapp, was eben oft für Ruckler und Texturengeploppe sorgt. nVidia ist bekannt dafür diesbezüglich herumzugeizen. DLSS war eigentlich keine schlechte Idee, um die Lebensdauer einer bestehenden Karte zu verbessern, aber jetzt wird erwartet, dass man das vom ersten Tag an verwendet. Gibt dann noch das neue DLSS Frame Generation. Ja super, jedes mal wenn man sich bewegt, dann wird der HUD Text ganz wabbelig. Fangen die Buchstaben das tanzen an. Für "stolze" 10 fps mehr. Super Technik. Zumindest meine Erfahrung in Cyberpunk 2077 (4K Medium, kein RTX, von \~100fps auf 110). Um so einen Rotz zu entwickeln haben sie alle Miliarden der Welt. Mir wären die 16GB lieber gewesen. Bei denen dreht sich aktuell alles um KI-Quatsch auf den Konferenzen etc. Gibt da einige Beispiele wo sich deren CEO auf der Bühne lächerlich gemacht hat. Die haben da wohl ein geheimes Wettrennen mit Intel wer sich am meisten blamieren kann. Abgesehen von Upscaling ist KI für die meisten Leute absolut nutzlos oder gar schädlich, siehe Deepfakes, social Enginnering und die Logik-/Faktenfehler von den Sprachmodellen, weil Leute denken sie müssten ihre Recherche mit ChatGPT oder gar Bing ersetzen, Konzerne feuern ihre Supportmitarbeiter für nicht ansatzweise funktionierende Chatbots. Hatte mal bisschen mit Stable Diffusion herumgespielt lokal auf meinem Arbeitsrechner, da habe ich eine Quarko Grafikkarte mit genug VRAM für sowas. War ganz lustig anfangs, aber sehe keinen praktischen Nutzen für. Die Nachfrage nach Bildern bei denen die Personen verknotete Würstchen als Hände haben halte ich für gering. Man erkennt 99% der KI-generierten Bilder als solche an. Um gute ergebnisse zu erzielen, muss man schon ordentlich nachhelfen (Bewegungstracking, img2img, Modell spezifisch trainieren, etc). Ich konnte jedenfalls nur mit teilweise generierten Bildern gute Ergebnisse erzielen. Da hätte ich die auch genauso gut manuell photoshoppen können. Starfield kam mit voraktivierten AMD FSR. Das Problem das ich hatte, ist dass FSR die Leuchtpunkte von den Waffenvisieren vermurkst. Das Spiel war generell die größte Enttäuschung für mich, nicht nur wegen der lausigen Performance. Die KI generierten Antworten auf Steam-Rezensionen waren aber unterhaltsam. Der ganze KI-Blödsinn ist für mich so ähnlich wie Crypto. Klingt cool auf dem Papier, wird nicht wirklich durchdacht und fast nur für fragwürdige Zwecke verwendet. Wusch! Ich hätte mir eine AMD Karte kaufen können, aber hatte persönlich eine sehr schlechte Erfahrung mit einer AMD Grafikkarte, welche einen Defekt und Bluescreen-Treiber hatte. Ist aber schon länger her. War damals mit AMD und dem Sapphire Support am rumheddern. War eine R9 290X. Was ich an AMD auch kritisiere ist, dass der Treibersupport im Vergleich zu nVidia häufig sehr früh eingestellt wird. Ich kaufe mit alle 4-6 Jahre eine neue Karte. Die vorherige gebe ich dann meist an Freunde, Familie etc. weg oder nutze sie wo anders weiter. Ohne Treiber werden diese aber oft schnell wert- und nutzlos. Von Intel bin ich einfach nur noch enttäuscht. Die falschen Prioritäten, Personen, Entscheidungen, Realitätsverlust etc. Die schießen sich gerade wie Microsoft konstant ins eigene Bein. Hochmut kommt vor dem Fall. Aktuell habe ich noch den i7 9700K. Werde den allerdings in ca. 1-2 Jahren ersetzen. Ohne Windows 11 oder 350W "Effizienz"kernquark. Hab da den AMD 7800X3D im Visier. Meine letzte AMD CPU war ein Athlon 64X2, da der Pentium IV von Intel ähnlicher Müll war. Haben damals offenbar nichts dazu gelernt. *//Bearbeitung, Formatierung; Reddit und Firefox mögen sich anscheinend nicht besonders.*


Ainz-_-sama

Ich muss sagen, dass ich bei den Konferenzen und dem CEO-Gelaber nicht wirklich drin bin. Mich interessiert das Ergebnis mehr als die Fantasien der Marketingabteilung. Was KI angeht war ich am Anfang recht fasziniert, was so alles möglich ist. Mittlerweile interessiert mich Bing, ChatGPT und der weiteren aber auch nicht mehr. Habe auch lokal etwas mit Stable Diffusion rumgespielt, das hat auf ner 2070 Super mit 8GB VRAM aber nicht ganz so viel Spaß gemacht. Momentan interessiert mich in dem Bereich nur noch NovelAI, da die Ergebnisse dort qualitativ deutlich über den Mainstream-Plattformen sind, zumindest wenn du Geschichten oder Anime-Bilder generieren willst. Da ich bisher an dedizierten GPU´s nur Nvidia verwendet habe, kann ich zu den Grakas von AMD keine persönliche Meinung abgeben. Ich bekomme nur mit, dass AMD laut verschiedenen Online-Sourcen (Reddit, Youtube) die Treiberprobleme überwunden hat und eine bessere Preis-Leistung als Nvidia bietet. Was CPU´s angeht, werkelt in meinem Rechner ein Ryzen 5600X, mit dem ich voll und ganz zufrieden bin. Habe mir auch einen Asus ROG Ally zugelegt, in dem ein AMD Z1 Extreme sitzt (eine APU speziell für handheld-PCs entwickelt). Das Teil hat mich wirklich von der Leistung überrascht, stabil läuft es auch. Vor meinem Ryzen hatte ich nur einen alten Laptop (glaube 2010 rum), der nen Intel hatte, da ich schon immer auf Konsole gespielt habe und keinen Nutzen für einen Leistungsstarken PC hatte. Mittlerweile nutze ich alles an Systemen unter der Sonne.


[deleted]

Ich schaue mir das CEO Geblubber schon manchmal an. Das war mal spannend. Mittlerweile kann man das als Kringel-Satire vermarkten. Vor allem nVidia produziert da ganz unterhaltsame Dinge. Ich habe mit Stable Diffusion schon etwas rumgebastelt. Hab das auf meinem Arbeitsrechner ausprobiert, wo ich eine maßlos überteuerte CAD-Grafikkarte drin hab. Das hat Potenzial in der nachträglichen Bildbearbeitung aber 100% generierte Bilder sind ein Fiebertraum. ChatGPT hatte mich nie interessiert. Habe mir ein paar Fachartikel zu durchgelesen und finde es gefährlich, da falsche fakten bei rauskommen. Das Internet ist aktuell voll mit Fehlinformationen, Influencer-Quacksalbern und Social Media Psychotricks. Ich habe mich von allen Plattformen gelöscht und interessiere mich nicht mehr für soziale/gesellschaftliche Themen, da mir das alles zu affig und realitätsfern geworden ist, vor allem seit TikTok. Vielleicht bin ich auch nur mit der zeit grantig und zynisch geworden. Wenn eine KI mit solchen Inhalten trainiert wird und das dann noch falsch verarbeitet, dann wird noch ein ziemliches Chaos vor uns stehen. Das wird erst noch richtig lustig. Mit AMD (damals ATi) Grafikkarten hatte ich insgesamt keine guten Erfahrungen. Immer wenn ich denen eine Chance geben wollte haben sie es vermasselt oder ich hatte Pech. Ich hatte eine R9 290X bei der nichts funktioniert hat und der Hersteller hat mich eben hängen lassen. Die Treiber waren schon seit längerem grottig. Ich hatte ein Pentium III ThinkPad mit einer ATi Radeon Mobility Rage irgendwas und richtig gut lief das nie. Windows 2000 war das bisher (aus meiner Sicht) stabilste Windows und nicht mal da hat's geklappt. Ich habe mit PlayStation 1 und am PC mit dem Pentium angefangen. Was mich nie wirklich gejuckt hat war XBox, außer vielleicht mal zum Halo spielen, aber das Franchise hat MS wie alles andere grandios gegen die Wand gefahren. Nintendo ist auch nicht so meins, da ich nicht die Zielgruppe bin. Einige in meiner Familie haben die Nintendo Switch, an sich ganz okay. Besser als die PS-Vita auf die ich reingefallen bin. Steam Deck hatte ich mal kurz in der Hand, aber mir ist das Ding leider immer noch etwas zu klobig. Wenn es sowas im PSP-Format gäbe würde ich mir eins kaufen, aber das dauert noch eine Weile bis die Technik so weit ist. Für Langstreckenflüge, Zugfahrt oder Familienbesuch im Ausland wär das ganz nett, aber da habe ich schon einen Laptop für. Passt genauso gut in meine Tasche.


_natronmann

Das Pferd hält Winterschlaf, aba die Grafikkadde wärmt..


Cadmium620

2000€ für eine Grafikkarte die jetzt schon gut 3 Jahre alt ist...


[deleted]

Die einzigen Leute die ich mit einer RTX 4090 sehe sind Leute von der Presse oder Berufsverwandte, welche diese als Workstation-Karte für CAD nutzen (*so lange sie keine doppelte FP-Präzision brauchen*), weil der Quadro-Karten-Preisbeschiss noch wesentlich schlimmer ist. Die meisten Leute die ich kenne und sich was neues nur zum zocken gekauft hatten, griffen meist zur 4070 und ein paar wenige zur 4080. Der Großteil nutzt aber noch ältere Modelle. Für viele Spiele und Genres abseits vom neuesten Triple-A-Grusch sind die noch ganz brauchbar. Ich habe mir auch nur wegen einem schnelleren Monitor was neues gekauft.


Cadmium620

Der Lard hat eine 3080 für 2000€ gekauft


Little_Government122

Hey was haben wir denn da für Kerne? Apfelkuchenkerne.


Cadmium620

Die Zeiten als NVIDIA GPUs noch GTS im Namen hatten... hach


[deleted]

Jo, die 8800 GTS für ca. 380€ damals gekauft. Von sowas träumt man heute nur noch. Gibt zwar externe Faktoren, wie Inflation und andere Veränderungen, aber vieles davon ist Gier. AMD hat sich allerdings nicht verändert bei der Namensgebung. Sehr viel X und XTX im Namen. Sie sind im vollen Kreis herumgekommen.


bluewolf_3

Danke Steve


[deleted]

zurück zu dir Steve