
-
aber gerade für programmierer sind multicore-systeme wichtig. denn deren aufgabe ist es ja eben, programme derart zu entwerfen, dass sie effizient auf multicore-cpus laufen. noch ist da viel zu tun. und wie bereits oben von mir erwähnt, gibt es auch ansätze nicht-parallele software mit geringem aufwand auf thread-ebene beschleunigt ablaufen zu lassen. somit könnte es nur eine frage der zeit sein, bis betriebssysteme die nötigen voraussetzungen bringen und standard-programme entsprechend boosten.
meine einschätzung: programme in 2 jahren, betriebsyssyteme in der übernächsten version.
für anwender gilt jedoch: heute kein quadcore, besser erst beim nächsten upgrade in ca 2 Jahren kaufen. allenfalls ein triple-core wäre noch empfehlenswert, aber nur bei gutem preis-leistungs-verhältnis.
für anwender von number-crunching (rendern, video-effekte, audio-gedöns, wissenschaftler und entwickler) jedoch lieber jetzt als später wechseln
-
 Zitat von Mathis
Wart's ab, bis die Strukturen nochmals verkleinert wurden (derzeit bei 45nm). Dann gibt es bestimmt wieder eine Taktfrequenzerhöhung.
taktfrequenz bringt aber nicht immer maximale leistungs-erhöhung. mit niedrigen strukturen lassen sich zB viel mehr cache-speicher (l3 und l2) auf der cpu unterbringen. die drücken das tempo auch sehr spürbar nach oben.
-
Eisenbeißer/in
 Zitat von Powerman76
taktfrequenz bringt aber nicht immer maximale leistungs-erhöhung. mit niedrigen strukturen lassen sich zB viel mehr cache-speicher (l3 und l2) auf der cpu unterbringen. die drücken das tempo auch sehr spürbar nach oben.
Word!
90% der Arbeitsspeicherzugriffe gehen über den Cache. Je größer der Cache um so mehr Boost.
Wichtig ist ebenso die Speicherbandbreite und FSB. Da liegt noch viel Potential.
-
Men`s Health Abonnent
Bei der PS3 sieht man mal als Paradebeispiel, dass selbst viele Kerne nicht viel bringen, wenn man sie nicht beherrscht.
Ich habe "nur" nen Dualcore (E6850) und aktuelle Games laufen immernoch tadellos und flüssig auf maximalen Details. Außer vielleicht Crysis
-
 Zitat von FatalError
Bei der PS3 sieht man mal als Paradebeispiel, dass selbst viele Kerne nicht viel bringen, wenn man sie nicht beherrscht.
Ich habe "nur" nen Dualcore (E6850) und aktuelle Games laufen immernoch tadellos und flüssig auf maximalen Details. Außer vielleicht Crysis 
nunja, der CELL ist an und für sich nicht schlecht. es gibt mehrere wissenschaftliche projekte (fast an jeder uni eigentlich), die sich mit der ausnutzung der 8 kerne befassen.
leider bringt er die leistung nur im integer-bereich, die wissenschaftlichen arbeiten benötigen jedoch eher float- oder double-operationen. da schwächelt der CELL deutlich.
als reiner rechenknecht ist der cell sicherlich nicht zu verachten, bekommt aber massive konkurrenz aus dem grafik-lager. die CUDA-Bibliotheken ermöglichen zB die ausnutzung von grafik-prozessoren als vektorrechner. und da sich diese nun auch massiv parallelisieren lassen, wartet dort eigentlich noch viel mehr leistungsspektrum!
-
Zweifelsohne versuchen die Hersteller immer mehr Leistung herauszukitzeln, indem sie immer mehr Tricks einbauen: größerer Cache, mehrere Pipelines, Sprungvorhersage, Verlagerung des Speicherinterface auf den Prozessor, SSEx, AMD64, ... - die Liste ist schier endlos.
-
Unser Informatiker meinter das irgendwann bei einer bestimmten Anzahl von Kernen Schluß sein wird, weil dann die ganze Verwaltung und Steuerung der einzelnen Kerne so anspruchsvoll wird, dass eine höher Anzahl unproduktiv wäre da die meiste Rechenleistung nur noch an die "Kernverwwaltung" gehen würde.
-
Erzähl das mal den Supercomputer-Herstellern. Die sind mittlerweile bei 212.922 Prozessoren angelangt (wahrscheinlich sogar schon mehr).
Je mehr Prozessoren ein System hat, umso weniger Anwendungen gibt es, die diese Leistung voll ausnutzen können.
-
das argument hinkt ein wenig.
supercomputer werden meistens auf auftrag hergestellt. und dann liegt auch immer eine arbeitsaufgabe vor, die es zu berechnen gilt (zB klima-simulation, atomare prozesse, militär-gedöns etc). diese großrechner werden ja nicht auf gut glück entwickelt und dann ohne konkrete planung von den laboren aufgekauft.
und anwendungen für riesenrechner gibt es immer mehr.
-
Da gibts einen Unterschied zwischen Großrechner und Supercomputer. Erstere sind eher redundant ausgelegt und haben mehrere Bereiche für verschiedene Aufgaben. Letztere sind eigentlich nichts anderes als Prozessoren und Speicher mit Netzwerkanbindung.
Wollte eigentlich nur sagen, dass die Anzahl der Prozessoren nicht begrenzt ist.
Ähnliche Themen
-
Von Titten-Zucker im Forum Technikforum
Antworten: 4
Letzter Beitrag: 20.11.2009, 18:22
-
Von Roki im Forum Marktplatz
Antworten: 0
Letzter Beitrag: 26.11.2008, 06:41
-
Von derchecker im Forum Technikforum
Antworten: 7
Letzter Beitrag: 09.07.2008, 13:24
-
Von le maraudeur im Forum Technikforum
Antworten: 24
Letzter Beitrag: 06.06.2008, 22:55
-
Von 1Nbasebastian im Forum Technikforum
Antworten: 12
Letzter Beitrag: 21.01.2008, 23:46
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- Anhänge hochladen: Nein
- Beiträge bearbeiten: Nein
-
Foren-Regeln
|
|
|
Lesezeichen