Beiträge von ThomasW

    Nur um dem Argument mit Hardware-Inflexibilität entgegenzutreten:

    Mein "Hackintosh" ist ein selbst zusammengebauter Rechner mit Intel Core 2 Quad Prozessor, nVidia GeForce 8600GT (passiv gekühlt), 4 GB RAM, Asus P5E3 Deluxe Mainboard, Wester Digital VelociRaptor-HD usw.
    Rennt auch schon seit gut 2-3 Monaten (länger hab ich das in dieser Form noch nicht installiert) ohne einen einzigen Absturz, ist quasi unhörbar, ich kann ohne Probleme selber dran rumschrauben, die Leistung ist genial im Vergleich zu vielen original-Apple-Geräten. Multiboot mit Linux logischerweise auch kein Problem, Windows habe ich nicht installiert.

    Einziger Wermutstropfen: damit das ganze rennt, muss ich 2 Kernel-Extensions nachinstallieren, von denen ich den Source-Code nicht finden konnte :/

    Verwende Mac OS X für die Sachen die unter Linux nicht oder nur viel aufwändiger zu bewerkstelligen sind (Beispiel Photoshop...).

    Das ist ja wohl eher ein Argument für normale PCs als für Macs..

    Jetzt mal so aus dem Bauch heraus und ohne zu testen würde ich das so machen:

    Zum thema passend: Nvidia hat fuer die 8xxx und 9xxx serie die treiber vollkommen verschissen: http://www.nvnews.net/vbulletin/showthread.php?t=115916

    Da sieht man mal wieder, warum binaertreiber einfach nicht mehr tragbar sind. Leider ist ATI auch (noch) nicht viel besser mit ihren treibern, aber die ehemals gueltige empfehlung fuer linux-user, sich nvidia-hardware zu kaufen, spreche ich definitiv nicht mehr aus.

    Dafür dass die Treiber "vollkommen verschissen" sind, macht meine 8800 seit gut 1.5 Jahren aber erstaunlich wenige Probleme.

    Wenn man eine 3D-Karte mit ernstzunehmender Performance und aktuellen OpenGL-Extensions für Linux braucht, führt immer noch nichts an Nvidia vorbei. Sicher wäre ein OSS Treiber den binären vorzuziehen, aber der muss mal einen ähnlichen Feature-Umfang erreichen.
    Larrabee könnte das ändern.

    Es ist dringendst empfohlen, deinen Compiler (fast... :)) so streng wie möglich zu stellen. Warnings sind nicht dafür da, dir zu zeigen, daß dein Compiler nicht mag, sondern um dir Hilfestellungen zu geben, wie du dein Programm verbessern kannst. Es lohnt sich rauszufinden, wie du deinen Compiler dazu bringst, dir für solchen Code eine Warnung auszugeben.

    -Wall -Wextra -ansi -pedantic -O2 rulez.

    Das blöde ist halt, dass sich einige Libraries nicht an diese Empfehlung halten. Dadurch hat man dann halt, wenn man so eine Include-File einbindet, gleich ein paar Screens voll Warnungen, gegen die man eigentlich nichts machen kann.

    Also unter Archlinux sieht die nVidia Installations-Routine bei mir etwa so aus:

    Stell' sicher, dass das Modul 'nvidia' gemountet ist. Afaik macht das der X-Server inzwischen automatisch.

    Dann als root:

    # Xorg -configure

    Damit wird eine neue xorg.conf file im Home-Verzeichnis erstellt.

    # mv ~/xorg.conf /etc/X11/
    # nvidia-xconfig

    Damit wird die neue config für den proprietären Treiber modifiziert.

    Jetzt sollte der X-Server eigentlich laufen. Evtl. solltest Du /etc/X11/xorg.conf nocheinmal überfliegen und Sachen wie Keymap und so anpassen.

    Hallo winter,

    Ich hätte auch ein paar Fragen. :)

    Eure HP ist auf russisch. In welcher Sprache arbeitet ihr intern? Von wo kommt euer Team in etwa?

    Für welche Platformen entwickelt ihr euer Spiel? Verwendet ihr OpenGL und/oder DirectX? Benutzt ihr sonst irgendeine bestimmte Middleware? (Physik z.B.)

    So wie ich das an den Screenshots beurteilen kann, entwickelt ihr ein klassisches RPG. Stimmt das in etwa? Ist das Spiel eher Punkte-, oder Actionorientiert? Plant ihr einen Onlinemodus?

    Wie weit seid ihr etwa schon im Projekt?

    Unter Linux und Co. sollte es für einen Programmierer auch nicht besonders schwer sein, das auszunützen. Da muss man die beiden Bilder einfach nur zeilenweise alternieren. Welche Zeile zu welchem Auge gehört, ist angegeben.

    Mit ein wenig OpenGL Stencil-, oder Shaderhacking kann man das auch für Echtzeit-3D verwenden.

    ActionListener ist ein Interface, oder?

    Interfaces sind abstrakte Datentypen. Du kannst keine Instanzen von Interfaces direkt erzeugen. Du musst eine Klasse schreiben, die das Interface implementiert.
    Die Objekte von der Klasse kannst Du dann überall dort benutzen, wo ein Objekt mit dem Interface verlangt wird.