
-
Men`s Health Abonnent
Bei der PS3 sieht man mal als Paradebeispiel, dass selbst viele Kerne nicht viel bringen, wenn man sie nicht beherrscht.
Ich habe "nur" nen Dualcore (E6850) und aktuelle Games laufen immernoch tadellos und flüssig auf maximalen Details. Außer vielleicht Crysis
-
 Zitat von FatalError
Bei der PS3 sieht man mal als Paradebeispiel, dass selbst viele Kerne nicht viel bringen, wenn man sie nicht beherrscht.
Ich habe "nur" nen Dualcore (E6850) und aktuelle Games laufen immernoch tadellos und flüssig auf maximalen Details. Außer vielleicht Crysis 
nunja, der CELL ist an und für sich nicht schlecht. es gibt mehrere wissenschaftliche projekte (fast an jeder uni eigentlich), die sich mit der ausnutzung der 8 kerne befassen.
leider bringt er die leistung nur im integer-bereich, die wissenschaftlichen arbeiten benötigen jedoch eher float- oder double-operationen. da schwächelt der CELL deutlich.
als reiner rechenknecht ist der cell sicherlich nicht zu verachten, bekommt aber massive konkurrenz aus dem grafik-lager. die CUDA-Bibliotheken ermöglichen zB die ausnutzung von grafik-prozessoren als vektorrechner. und da sich diese nun auch massiv parallelisieren lassen, wartet dort eigentlich noch viel mehr leistungsspektrum!
-
Zweifelsohne versuchen die Hersteller immer mehr Leistung herauszukitzeln, indem sie immer mehr Tricks einbauen: größerer Cache, mehrere Pipelines, Sprungvorhersage, Verlagerung des Speicherinterface auf den Prozessor, SSEx, AMD64, ... - die Liste ist schier endlos.
-
Unser Informatiker meinter das irgendwann bei einer bestimmten Anzahl von Kernen Schluß sein wird, weil dann die ganze Verwaltung und Steuerung der einzelnen Kerne so anspruchsvoll wird, dass eine höher Anzahl unproduktiv wäre da die meiste Rechenleistung nur noch an die "Kernverwwaltung" gehen würde.
-
Erzähl das mal den Supercomputer-Herstellern. Die sind mittlerweile bei 212.922 Prozessoren angelangt (wahrscheinlich sogar schon mehr).
Je mehr Prozessoren ein System hat, umso weniger Anwendungen gibt es, die diese Leistung voll ausnutzen können.
-
das argument hinkt ein wenig.
supercomputer werden meistens auf auftrag hergestellt. und dann liegt auch immer eine arbeitsaufgabe vor, die es zu berechnen gilt (zB klima-simulation, atomare prozesse, militär-gedöns etc). diese großrechner werden ja nicht auf gut glück entwickelt und dann ohne konkrete planung von den laboren aufgekauft.
und anwendungen für riesenrechner gibt es immer mehr.
-
Da gibts einen Unterschied zwischen Großrechner und Supercomputer. Erstere sind eher redundant ausgelegt und haben mehrere Bereiche für verschiedene Aufgaben. Letztere sind eigentlich nichts anderes als Prozessoren und Speicher mit Netzwerkanbindung.
Wollte eigentlich nur sagen, dass die Anzahl der Prozessoren nicht begrenzt ist.
-
Power User
Diese Monster werden auch für Anwendungen benutzt die sich leicht parallelisieren lassen, d.h. von Anwendungen die nicht auf andere Prozessergebnisse angewiesen sind, Simulationen aller Art fallen gerne darunter.
Für Spiele eher schlecht geeignet, wenn ich da auf Feuer drücke kommt erst mal Kollisionsabfrage, dann Physiksimulation, KI und dann erst kann man das fertige Bild zusammenstellen und Rendern, alle müssen drauf warten was der Vorgänger rausbekommt.
Ausserdem werden für speziell diese millionenteure Computer auch extra angepasste Anwendungen geschrieben, da kümmern sich Programmierer nur um diesen einen Rechner, und die wissen auch genau was drin steckt und können dann auch das maximum rausholen.
Auf dem Desktop-Markt gibts mittlerweile alles von 1-8 Kernen, und ein Programm sollte doch auf allen noch annehmbar laufen, also muss man die Basis beim kleinsten, möglichen Szenario ansetzen, Kern 2-7 sind quasi "Option".
Eine weitere Verkleinerung der Strukturen senkt lediglich die Wärmeentwicklung, begünstigt aber weiter die Elektromigration, so gesehen werden CPU`s empfindlicher für hohe Taktfrequenzen wenn man sie kleiner macht.
Die Taktfrequenz wird vor allem von Physikalischen Gegebenheiten ausgebremst, je höher die Frequenz wird desto schieriger ist damit umzugehen.
Das sieht man u.A. an den neuen Sockeln bei denen die Pins auf dem Mainboard von kleinen Federn gebildet werden und nicht mehr aus dem Prozessor rausgucken, das ist günstiger bei derart hohen Frequenzen.
Ähnliche Themen
-
Von Titten-Zucker im Forum Technikforum
Antworten: 4
Letzter Beitrag: 20.11.2009, 18:22
-
Von Roki im Forum Marktplatz
Antworten: 0
Letzter Beitrag: 26.11.2008, 06:41
-
Von derchecker im Forum Technikforum
Antworten: 7
Letzter Beitrag: 09.07.2008, 13:24
-
Von le maraudeur im Forum Technikforum
Antworten: 24
Letzter Beitrag: 06.06.2008, 22:55
-
Von 1Nbasebastian im Forum Technikforum
Antworten: 12
Letzter Beitrag: 21.01.2008, 23:46
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- Anhänge hochladen: Nein
- Beiträge bearbeiten: Nein
-
Foren-Regeln
|
|
|
Lesezeichen