„Diskussion:Grafikkarte“ – Versionsunterschied

Inhalt gelöscht Inhalt hinzugefügt
ArchivBot (Diskussion | Beiträge)
1 Abschnitt nach Diskussion:Grafikkarte/Archiv/1 archiviert - letzte Bearbeitung: 79.212.177.72 (18.06.2014 22:51:41)
Zeile 31: Zeile 31:
mMn ist diese formulierung zu schwammig für eine Enzyklopädie. Es macht schon einen großen Unterschied, ob man mit einem aktuellen Spiel eines wie [[Fussball Manager]] 14 oder eines wie [[Crysis 3]] meint. --[[Benutzer:MrBurns|MrBurns]] ([[Benutzer Diskussion:MrBurns|Diskussion]]) 07:18, 11. Jan. 2014 (CET)
mMn ist diese formulierung zu schwammig für eine Enzyklopädie. Es macht schon einen großen Unterschied, ob man mit einem aktuellen Spiel eines wie [[Fussball Manager]] 14 oder eines wie [[Crysis 3]] meint. --[[Benutzer:MrBurns|MrBurns]] ([[Benutzer Diskussion:MrBurns|Diskussion]]) 07:18, 11. Jan. 2014 (CET)
:Schließe mich dieser Sichtweise an. Selbst bestimmte Spiele, die schon 8 Jahre auf dem Buckel haben (z.B. Flight Simulator X) wird man mit einer integrierten Graphiklösung wie Intel HD Graphics nicht anständig zum laufen bringen. Nach meinen ungedarften Vergleichen liegt unsere HD4000 Graphics der CPU ungefähr auf dem Level einer GeForce 7300 und somit in etwa bei 2,5 MT/s. Um z.B. den FSX brauchbar bei normalen Graphikeinstellungen nutzen zu können, sind 8 MT/s notwendig, Spaß macht es ab 15 MT/s, full Graphics nicht unter 35 MT/s. Aber mit Sicherheit wird ein überzeugter Intelianer mit entsprechend synthetischen Benchmarks das Gegenteil herrechnen können. [[Spezial:Beiträge/79.212.177.72|79.212.177.72]] 22:51, 18. Jun. 2014 (CEST)
:Schließe mich dieser Sichtweise an. Selbst bestimmte Spiele, die schon 8 Jahre auf dem Buckel haben (z.B. Flight Simulator X) wird man mit einer integrierten Graphiklösung wie Intel HD Graphics nicht anständig zum laufen bringen. Nach meinen ungedarften Vergleichen liegt unsere HD4000 Graphics der CPU ungefähr auf dem Level einer GeForce 7300 und somit in etwa bei 2,5 MT/s. Um z.B. den FSX brauchbar bei normalen Graphikeinstellungen nutzen zu können, sind 8 MT/s notwendig, Spaß macht es ab 15 MT/s, full Graphics nicht unter 35 MT/s. Aber mit Sicherheit wird ein überzeugter Intelianer mit entsprechend synthetischen Benchmarks das Gegenteil herrechnen können. [[Spezial:Beiträge/79.212.177.72|79.212.177.72]] 22:51, 18. Jun. 2014 (CEST)

== Der Artikel ist ein "Desaster" ==

Hi :)

Warum muss da Apple reingequetscht werden? Was hat Apple mit Grafikkarten zu tun? Ich wette, wenn wir genauer suchen, werden wir auch in aelteren Rechnern Konzepte einer Grafikkarte erkennen koennen. Denn Apples Microcomputer ist nicht der Erste mit einem Bussystem. Apple hat hier also komplett keinen Belang, außer um bei gewissen Leuten eine Beule in der Hose zu provozieren. Auch bitte mal die ganzen Formulierungen ueberarbeiten.

Die Grafikbeschleunigung ist schon wesentlich laenger verfuegbar, bei Grafikkarten fuer den PC setze sie aber schon ab 1989 an, mit Erscheinen des i860. Ich waere aber auch hier vorsichtig, denn es findet sich vielleicht ein Hersteller, der bereits vorher mit solchen Moeglichkeiten auf der x86 Plattform experimentiert hat.

Und die Entwicklung zur GPU duerfte so gesehen schon mit Erscheinen der Ersten Grafikkarte angefangen haben. Ist also Nonsens. Die erste richtige -wo sich auch die Formulierung aenderte- GPU kam mit programmierbaren Shadern. Alles davor hat mit einer GPU -im heutigem Sinne- nichts zu tun. Die Entwicklung an sich begann mit T&L und Vertex Shadern. T&L als Konzept kam uebrigends schon wesentlich frueher als man denkt. Die geforce von nvidia machte es erst salonreif. Hier muesste man Google bemuehen. In Wirklichkeit jedoch gibt es GPUs in der Definition schon seit 1989. Hier waere wieder der i860 zu nennen, der als Prozessor auf Grafikkarten untergebracht wurde. Dieser war eine eigenstaendige CPU.

Um es kurz zu fassen: Anfang der 90iger verbreiteten sich Windows Beschleuniger. Mitte der Neunziger kamen primitive 3D-Beschleuniger auf den Endkundenmarkt. Ende der Neunziger konnten Grafikkarten vermehrt CPU-intensive Aufgaben abladen (T&L) >> Geforce 2 (Vertex Shader) und Anfang 2000, beginnend mit der Geforce 3/ Radeon 8500 wurden dann Pixel-Shader im Endkundenmarkt eingefuehrt. Gut ausformuliert waere diese Definition korrekter.

Gruß, FfFCMAD

Version vom 26. August 2015, 13:23 Uhr

Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „Grafikkarte“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf , um ein neues Diskussionsthema zu beginnen.
Archiv
Wie wird ein Archiv angelegt?

Grafikkarten Grafikprobleme

Hallo

Habe eine GFORCE 640. Bin mir leider nicht sicher wie ich die optimale Einstellung bekomme. Bei The Witcher 2 erreiche ich nicht einmal den standart. Nun spiele ich Arma 3 und gestern hab ich es auf ein fliesendes Spielerlebnis geschafft inkl. sehr schöner Grafik. Heute war der Traum dann aber schon wieder zu ende. Ich bin am verzweifeln. Könnte ein Profi vielleicht mal eine Liste erstellen mit all den Begriffen und derer Auswirkungen?? Denn das automatische Grafik Programm funktioniert ja nicht einmal annähernd so gut wie es möglich wäre, es scheitert also genau da wo man eigentlich suchen müsste. Was für eine Schande wenn Hersteller einem nur eine Neue als die richtige Einstellung aufzwingen wollen. Manchmal habe ich nöcher die Vermutung es wird absichtlich VERCHRAUBT um mehr SPEICHER zu fressen usw.

HILFE BITTE!

Die Diskussionsseiten sind kein Beratungsforum (WP:WWNI). z.B. hier findet man was über die 3D-Einstellungen in der NVIDIA-Systemsteuerung. --MrBurns (Diskussion) 16:35, 22. Jul. 2013 (CEST)Beantworten
Dieser Abschnitt kann archiviert werden. --MrBurns (Diskussion) 16:35, 22. Jul. 2013 (CEST)

Hey Danke genau das habe ich gesucht dein Link kannst du ja gleich Gross hier hinein schreiben oder als seperaten Link :) (nicht signierter Beitrag von 91.138.6.19 (Diskussion) 15:28, 22. Jul. 2013 (CEST))Beantworten

Diagramm bei Hersteller

Sollen wir nicht vielleicht ein Diagramm der Marktanteile bei dem Abschnitt Hersteller einfügen? --Isenherz (Diskussion) 14:02, 29. Okt. 2013 (CET)Beantworten

"aktuelle Spiele"

Mittlerweile sind die Grafiklösungen von AMD und Intel jedoch bereits leistungsfähig genug, um aktuelle Spiele auf zumindest geringen Details zu spielen.

mMn ist diese formulierung zu schwammig für eine Enzyklopädie. Es macht schon einen großen Unterschied, ob man mit einem aktuellen Spiel eines wie Fussball Manager 14 oder eines wie Crysis 3 meint. --MrBurns (Diskussion) 07:18, 11. Jan. 2014 (CET)Beantworten

Schließe mich dieser Sichtweise an. Selbst bestimmte Spiele, die schon 8 Jahre auf dem Buckel haben (z.B. Flight Simulator X) wird man mit einer integrierten Graphiklösung wie Intel HD Graphics nicht anständig zum laufen bringen. Nach meinen ungedarften Vergleichen liegt unsere HD4000 Graphics der CPU ungefähr auf dem Level einer GeForce 7300 und somit in etwa bei 2,5 MT/s. Um z.B. den FSX brauchbar bei normalen Graphikeinstellungen nutzen zu können, sind 8 MT/s notwendig, Spaß macht es ab 15 MT/s, full Graphics nicht unter 35 MT/s. Aber mit Sicherheit wird ein überzeugter Intelianer mit entsprechend synthetischen Benchmarks das Gegenteil herrechnen können. 79.212.177.72 22:51, 18. Jun. 2014 (CEST)Beantworten

Der Artikel ist ein "Desaster"

Hi :)

Warum muss da Apple reingequetscht werden? Was hat Apple mit Grafikkarten zu tun? Ich wette, wenn wir genauer suchen, werden wir auch in aelteren Rechnern Konzepte einer Grafikkarte erkennen koennen. Denn Apples Microcomputer ist nicht der Erste mit einem Bussystem. Apple hat hier also komplett keinen Belang, außer um bei gewissen Leuten eine Beule in der Hose zu provozieren. Auch bitte mal die ganzen Formulierungen ueberarbeiten.

Die Grafikbeschleunigung ist schon wesentlich laenger verfuegbar, bei Grafikkarten fuer den PC setze sie aber schon ab 1989 an, mit Erscheinen des i860. Ich waere aber auch hier vorsichtig, denn es findet sich vielleicht ein Hersteller, der bereits vorher mit solchen Moeglichkeiten auf der x86 Plattform experimentiert hat.

Und die Entwicklung zur GPU duerfte so gesehen schon mit Erscheinen der Ersten Grafikkarte angefangen haben. Ist also Nonsens. Die erste richtige -wo sich auch die Formulierung aenderte- GPU kam mit programmierbaren Shadern. Alles davor hat mit einer GPU -im heutigem Sinne- nichts zu tun. Die Entwicklung an sich begann mit T&L und Vertex Shadern. T&L als Konzept kam uebrigends schon wesentlich frueher als man denkt. Die geforce von nvidia machte es erst salonreif. Hier muesste man Google bemuehen. In Wirklichkeit jedoch gibt es GPUs in der Definition schon seit 1989. Hier waere wieder der i860 zu nennen, der als Prozessor auf Grafikkarten untergebracht wurde. Dieser war eine eigenstaendige CPU.

Um es kurz zu fassen: Anfang der 90iger verbreiteten sich Windows Beschleuniger. Mitte der Neunziger kamen primitive 3D-Beschleuniger auf den Endkundenmarkt. Ende der Neunziger konnten Grafikkarten vermehrt CPU-intensive Aufgaben abladen (T&L) >> Geforce 2 (Vertex Shader) und Anfang 2000, beginnend mit der Geforce 3/ Radeon 8500 wurden dann Pixel-Shader im Endkundenmarkt eingefuehrt. Gut ausformuliert waere diese Definition korrekter.

Gruß, FfFCMAD