TS 2010 - auch 32-Bit?

  • Guten Morgen,


    eine Frage hätte ich zum TS 2010:
    Funktioniert dieser bei Windows 7
    ausschließlich in der 64-bit Version.


    Beste Grüße joachim

    Einmal editiert, zuletzt von Basti ()

  • Nein!
    Der TS2010 ist für 64bit angepasst worden, er ist aber weiterhin ein 32bit-Programm.

  • Nein, funktioniert auch in der 32-bit Version einwandfrei. Allerdings könnte es bei größeren Routen Probleme mit der Performance geben.

  • Ahoi


    Das mit der Performence bei großen Strecken mit einem 32er System, können wir nicht unbedingt bestätigen.
    Aber vielleicht finden denn doch Betroffene hier Hilfe.



    Wer sein Trainz unter Windows Vista oder Windows 7 - egal ob 32 oder 64 - installieren und Probleme vorbauen möchte, findet Hilfe...


    TRS2007
    TS2009 und TS2010



    Gruß
    Edgar

    Einmal editiert, zuletzt von Edgar_Wood ()

  • Meine Aussage stammte aus der zeit vor dem SP1. Hier dürfte Auran nachgebessert haben, wie auch einige Einträge im PrivateForum zeigten.


    Danke für die Links Edgar, sehr aufschlussreich und interessant. :clap:

  • ..TS2010 ist ein reines 32-Bit-Programm, da bringt ein 64-Bit-OS auch keine höhere Performence:shock:

  • ...aber nur größer 4GB RAM, weil Win64bit-Prozesse mehr RAM verbrauchen, als im 32bit-System. Und Trainz nur einem Kern zuordnen, alles Andere auf den/die Anderen. (TS2010 soll zwar für 2Kerne optimiert worden sein, was ich probiert hab, kann ich so nicht bestätigen,vieleicht weil ich altes XP64 benutze)
    LG Frank

    Einmal editiert, zuletzt von buderberlin ()

  • Die 64 Bit Versionen verwalten den System-Speicher ab / größer 3 GB besser. Nicht umsonst geben alle Hersteller von Komplettsystemen zu PC mit mehr Speicher zumindest auch eine 64 Bit-Recovery zu ihren Systemen dazu.
    Z. Beispiel:
    Win7 32Bit mit eingebauten 8 GB RAM; verarbeitet bzw genutzt werden können nur ca 3.25 GB.


    Win 7 64Bit mit eingebauten 8 GB RAM; verarbeitet bzw genutzt werden können die ganzen 8 GB RAM.


    Somit bringt im Endeffekt ein 64 Bit-Betriebssystem etwas, sofern mehr wie 3 GB Speicher verbaut sind.

  • „TS2010 ist ein reines 32-Bit-Programm, da bringt ein 64-Bit-OS auch keine höhere Performence“
    Jein: Denn wenn das gesamte OS eh schon unter 64bit ausgeglichener läuft, stehen auch dem Trainz mehr Resourcen zur Verfügung. Ich möchte jedenfalls nicht mehr auf ein 32bit OS wechseln.


    Mehr als ein Kern:
    Ich habe einen intel E6850 @3000MHz, es wurden unter XP-X86/Win7 RC-X86 sowie unter Win7-X64 bei den Trainzes 2006/2007/2010 immer beide Kerne genutzt.
    Ich weiß noch als Leute damit anfingen, Trainz würde mit nur einem Kern besser laufen und es gewisse Tools gab mit denen man das dauerhaft regulieren konnte. Dies hatte bei mir nie etwas positives gebracht, eher sehr gegenteilig.


    Mehr RAM:
    Mit Einzug des X64 OS rüstete ich auch Arbeitsspeicher auf, habe nun 4 GB.
    Weder Trainz noch andere Programme die ich nutze haben je mehr als etwa 50% des Arbeitsspeichers genutzt. Eine Zeitlang ließ ich zur Beobachtung ein Windows-Gadget laufen welches mir den Zustand fortlaufend anzeigte.
    Auch mit den entsprechenden Zuweisungen in der trainzoptions.txt konnte ich nicht erzielen dass mehr RAM genutzt würde.
    Klar, dem 32bit TRS kann man logischerweise max. 2 GB zuweisen, aber da die Hintergrundprogramme und Dienste nun mal auch noch RAM benötigen, glaubte ich dass man so doch mal auf über 50% kommen würde.
    Der Speicherkontroller sitzt bekanntlich in der CPU, vielleicht liegt da auch mein Problem.
    Dass die CPU zwar mit den Kernen gut umgehen kann, jedoch nicht mit mehr RAM.
    Pouh…


    Zwar kann ich absolut nicht klagen, denn Trainz läuft in der Ausgabe 2010 wirklich zufriedenstellend, aber ich schaue dennoch nach vorn und hoffe auf ein späteres 64bit Trainz :grinning_squinting_face:

  • [ot]Was läuft denn hier in dem Thread?
    Bei mir wird in der Statusleiste "Warten auf 1.1.1.1..." fortlaufend angezeigt (nur hier im Thread)[/ot]



    edit: komisch, scheinbar auch nur auf der vorigen Seite, hm



    ERLEDIGT, siehe Shoutbox

    Einmal editiert, zuletzt von ikael ()

  • Die heute in vielen (auch im professionellen Anwendungsumfeld) anzutreffenden X86-64-Prozessoren, kurz X64, sind Erweiterungen der klassischen X86-Architektur. Sie sind keine "echten" 64-bit-Architekturen im klassischen Sinne, die vor knapp 20 Jahren mit der DEC Alpha auf den Markt kamen. Später hat auch Intel mit dem Titanium versucht, in diesem oberen Segment Fuß zu fassen, mit sehr mäßigen Erfolg.


    Die X64 haben den großen Vorteil für den Normalverbraucher, dass sie sich sowohl unter 32- als auch unter 64-bit-Betriebssystemen betreiben lassen. Windows bietet entsprechende Varianten seit Jahren. Und zu Hause steht passende Hardware auch schon seit Jahren. Aber irgendwie ist es erst jetzt zum Anwender durchgedrungen, die Hardware entsprechend zu nutzen. Denn als Anwender hat man offensichtlich keine wirklichen Nachteile. Es läuft alles wie bisher. Insbesondere heißt das, man benötigt keine 64bit-Prozesse. Entsprechende Programme sind eh kaum zu finden. Die Migration einer Software auf 64bit ist nämlich verdammt aufwändig und fehleranfällig. Allerdings bringt die X64-Architektur einen angenehmen Nebeneffekt für bestehende Software. Mit minimaler Änderung kann ein 32bit-Prozess mehr Speicher nutzen.


    Ein normaler 32bit-Prozess unter Windows 32bit kann maximal 2GB virtuellen Speicher für sich in Anspruch nehmen. Das ist völlig unabhängig davon, wieviel Speicher physikalisch vorhanden ist. Mit ein wenig Modifikation beim Linken (und ein paar notwendigen Prüfungen) kann aber ein solcher 32-Bit-Prozess dazu gebracht werden, mehr Speicher adressierbar zu machen, auch schon auf 32-bit-Systemen. Allerdings muss Windows dazu auch ein wenig modifiziert werden. Danach können bis zu 3GB (virtuell) für so einen Prozess vergeben werden. Da physikalisch selten mehr als 3GB überhaupt adressiert werden können (hängt vom Motherboard ab), kommt man hier ans allgemeine Limit.


    Auf x64 geht es besser. Ein solcher modifizierte Prozess kann unter 64bit-Windows jetzt tatsächlich seinen ganzen 32bit-Adressbereich ausnutzen, also 4GB virtuell adressieren, wieder unabhängig davon, ob die physikalisch vorhanden sind. Nur kann man eben beim X64 und entsprechendem Motherboard physikalisch nicht nur mehr draufpacken sondern auch nutzen. Und dann die 4GB für den Prozess ausreizen.


    Ich gehe mal davon aus, dass TS2010 diese Modifikation vorgenommen hat, wie übrigens auch TransDEM 2.0, und damit in die 3/4GB-Welt vorgedrungen ist. Damit bleibt es aber trotzdem ein ganz normaler 32bit-Prozess.


    Was Mehrkernprozessoren angeht, da gibt es auch so manches Missverständnis. Seit NT 3.1, Anfang der 90er Jahre, spielt Windows in der Liga der "richtigen" Betriebssysteme mit. Einer der Schöpfer des NT-Kernels, Dave Cutler, hat NT einen "Fully preemptive task scheduler" verpasst, und gleich das passende Prozess und Threading-Modell dazu. Das gab es zuvor nur bei den "großen" Systemen und bei Unix (bis auf die Threads. Das dauerte bei Unix noch etwas). Mit dem Multitasking-Konzept konnten ganz gewöhnliche Anwendungen "parallel" arbeiten. Allerdings war das damals eine virtuelle Parallelisierung, stand doch normalerweise nur ein Prozessorkern zur Verfügung.


    Im professionellen Umfeld änderte sich für die Software mit der Verbreitung von Multi-Prozessor- oder Mehrkern-Prozessoren gar nichts. Bei gut geschriebener Software musste nicht eine einzige Ziele geändert, oder neu kompiliert werden. Diese Prozesse nutzten die neuen Architekturen von Anfang an voll aus. Im Hobby-Bereich war das anders. Bis vor wenigen Jahren dominierte in der Spiele-Welt noch das DOS-Programmiermodell, das eigentlich ohne Betriebssystem auskommt. Eine Endlosschleife versucht ohne Rücksicht auf Verluste so viele Frames wie möglich zu produzieren. Spielprogrammierer taten sich unendlich schwer, parallele Ansätze aufzugreifen (Ausnahme: die Grafik selbst). Wobei man zugeben muss, Parallelisierung, selbst in ihrer heutigen Form, dem Multithreading, ist alles andere als trivial. Wenn man die notwendigen Verfahren nicht im Blut hat, sind Desaster mehr oder weniger vorprogrammiert. Vielleicht dauert es auch deswegen solange, bis Spiele einen weiteren Prozessorkern wirklich nutzen. Aber nochmal, die Softwareumgebung dazu ist seit 15 Jahren ausentwickelt. Das Problem besteht in den Köpfen der Entwickler, nicht in deren Entwickungsumgebung. Aus meiner Perspektive ist es faszinierend zu beobachten, wie Programme, die ich vor Urzeiten geschrieben habe, heute ohne jede Anpassung ganz automatisch auf Mehrkernsystemen für wunderbare Lastverteilung sorgen.

    Einmal editiert, zuletzt von geophil ()