Beiträge von Daedalus

    Mir fällt da momentan nur eine Lösung ein: Richte dir in Mail einen Dummy-Account ein (muss nicht einmal funktionieren, es reicht wenn er nicht mehr den Setup-Assistenten startet wenn Mail geöffnet wird). Dann in iCal das Ereignis senden, das führt dazu, dass sich ein Mail-Fenster mit einer neuen E-Mail in einem neuen Fenster öffnet, in dem das iCal-Ereignis bereits als Attachment angehängt ist. Das kannst du mit Rechtsklick -> Speichern unter extrahieren und beliebig weiterverwenden.

    Bissl umständlich, aber eigentlich eh wieder typisch für proprietäre Software...

    cpu-whining


    Was ist denn das?

    Etwaige Pfeiftöne können nicht von einer CPU kommen - wenn etwas nervige Geräusche von sich gibt (von mechanischen Bauteilen abgesehen), dann sind das Elektrolytkondensatoren und/oder Spulen. Das Vorhandensein von solchen Tönen würde also höchstens etwas über schlechte Qualität z.B. des Mainboards hinweisen.

    Ansonsten: Momentan sind die Intel Core 2 Prozessoren die beste Wahl wenn es um Leistung geht. Ich glaube ausserdem auch, dass die AMD-Prozessoren noch immer im 65nm-Prozess gefertigt werden (aktuelle Intel mit 45nm), daher ist ein von der Leistung her vergleichbarer AMD möglicherweise heisser (unter Last dadurch lauter) und verbraucht mehr Strom (Akkulaufzeit)

    Bezüglich abschaltbaren Steckerleisten: ich habe damit eher gemischte Erfahrungen gemacht: Dadurch, dass bei fehlender externer Stromversorgung der NVRAM, welcher die BIOS-Einstellungen speichert sowie für das Weiterlaufen der Uhr zuständig ist, von der am Mainboard befindlichen Batterie gestützt werden muss, kann das - je nachdem wie lange die externe Stromversorgung abgeschaltet ist - dazu führen, dass die erwähnte Batterie viel früher leer wird.

    Der Rechner merkt sich dann nach Trennen der Stromversorgung die BIOS-Einstellungen nicht mehr und die Uhr beginnt stets bei einer sehr falschen Uhrzeit/Datum zu laufen.

    Diese Batterien tauscht man bei der "Halbwertszeit" moderner Hardware selten aus bevor die Hardware selbst ausgetauscht/weiterverkauft/weggeworfen wird, daher ist das nicht unbedingt ein Problem, aber man sollte das vielleicht im Hinterkopf behalten wenn man so eine Steckerleiste einsetzt...

    Die Hz-Angabe bei den Monitoren bezieht sich tatsächlich auf die Bildwiederholungsrate, die widerrum, wenn sie niedrig liegt, wie ein Flimmern wahrgenommen wird, was (teilweise) Kopfschmerzen zur Folge hat.


    Bei TFTs gibt es soweit ich weiss kein Flimmern, weil der Bildaufbau nicht wie bei einem CRT-Monitor zeilenweise erfolgt. Die Bildwiederholrate gibt nur an, wie oft in der Sekunde das Bild aktualisiert werden kann; wenn z.B. große Teile des Bildes gleich bleiben, wird dort - im Gegensatz zu CRTs - überhaupt nix verändert.

    Meine TFTs werden alle nur mit 60 oder 75 Hz angesteuert - merke absolut kein Flimmern oder ähnliches, obwohl ich bei CRTs in dieser Hinsicht extrem empfindlich bin - bei solchen Monitoren stört mich teilweise selbst ein Bildaufbau mit 85 Hz (natürlich abhängig von der Qualität des Gerätes)

    Sync-on-green bezieht sich auf das Component-Video: Synchronisationsinformation wird im Green-Signal mitübertragen (Quelle: wikipedia). Wenn du den Monitor nur über den DVI-Input ansteuern willst, brauchst du das nicht.

    Hier gibts einen Testbericht [prad.de] zu diesem Monitor

    Willst du ihn ausschließlich am MacBook Pro verwenden oder zusätzlich an einem zweiten Rechner? Der Monitor hat leider nur einen digitalen und einen analogen Eingang

    Ist der nvidia-Treiber unter 2D echt noch lahmer als der nv? Mit nv kannst ja nichtmal openttd gscheit spielen.:omg:


    In bestimmten Szenarien ja - z.B. Webseiten in Firefox mit statischem Background fühlen sich beim Scrollen an als würde man auf einem uralten Rechner sitzen. Ruckelt bei Bewegung des Mausrads vor sich hin, wenn man das Mausrad loslässt gehts noch ein paar Sekunden so weiter. Das geht mit dem nv-Treiber deutlich besser (so wie früher mit dem proprietären)...

    Für mich ist der nv-Treiber momentan echt die beste Lösung (keine Spiele, nur C/C++ für Linux und Embedded-Geschichten). Für etwaige 3D-Sachen hab ich ja mein Hackintosh-Mac OS X :devil:

    Zum thema passend: Nvidia hat fuer die 8xxx und 9xxx serie die treiber vollkommen verschissen: http://www.nvnews.net/vbulletin/showthread.php?t=115916

    Da sieht man mal wieder, warum binaertreiber einfach nicht mehr tragbar sind. Leider ist ATI auch (noch) nicht viel besser mit ihren treibern, aber die ehemals gueltige empfehlung fuer linux-user, sich nvidia-hardware zu kaufen, spreche ich definitiv nicht mehr aus.


    Ich kann das voll unterschreiben... Habe meine GF7900GS ca. vor einem halben Jahr gegen eine GF 8600GT wegen der besseren Kompatibilität mit Mac OS X getauscht... und inzwischen bitter bereut. KDE 4 benutze ich zwar nicht (ist mir noch nicht ausgereift genug), aber das, was sich mit dem proprietären Treiber unter GNOME z.B. in Firefox 3 abspielt ist echt nicht mehr lustig.

    Habe mit Herumspielen mit den diversen Optionen wie GlyphCache, InitialPixmapPlacement sowie xorg.conf-Optionen zwar das Problem mit dem Firefox halbwegs erträglich gemacht, mit dem wunderschönen Effekt, dass jetzt evince beim Skalieren von PDFs extrem langsam wurde, die CPU-Auslastung dabei auf 100% geht und z.B. der Musik-Player die Tonausgabe unterbricht :shinner:

    Nachdem ich das System so nicht mehr als zum sinnvollen Arbeiten ausreichend angesehen hatte, habe ich mir eine 3 Jahre alte Radeon X850XT ausgeborgt, die mit dem "radeon"-Treiber auch im 3D-Modus funktioniert. Da ich aber innerhalb kürzester Zeit nach Installation dieses Heizlüfters meine passiv gekühlte 8600 GT vermisste, hab mich mir nochmal den xf86-video-nv Treiber angesehen und es auch geschafft, mittels XRandR mein TwinView-Setup zu realisieren. Der fehlende 3D-Support stört mich unter Linux momentan überhaupt nicht... Bleibt nur mehr abzuwarten, ob dieser Treiber auch mit grossen Auflösungen zurechtkommt (z.B. Dual 1920x1200)

    Habe selber eine GeForce 8600 GT, die ich damals gekauft hatte, weil ich mit dem proprietären Linux-Treiber bisher gute Erfahrungen gemacht hatte (brauche zwar kein 3D, aber TwinView geht nur mit dem Treiber), bin momentan aber schon ein paar Wochen am Suchen nach Infos zu den Radeon-Karten unter Linux...


    Ich korrigiere mich hier selbst: der proprietäre Treiber ist für TwinView nicht nötig, der aktuelle xf86-video-nv-Treiber funktioniert offenbar auch schon mit der GeForce 8-Serie und unterstützt dabei XRandR - also ist die Ansteuerung von 2 Displays auch problemlos möglich :)

    ATI habe ich jetzt mal ausgeschlossen da ich gerne auch unter Linux funktionierende Treiber hätte. :D


    Gerade das könnte sich aber in einiger Zeit ändern - momentan hat nVidia relativ große Schwierigkeiten mit den Treibern für die GeForce 8 und 9 - Serie... 2D-Darstellung ist unter Linux teilweise total miserabel (KDE4, Firefox 3 z.B.). Angeblich wollen sie es beheben, geht aber scheinbar schleppend voran.

    Bei ATi hingegen wurden ja Spezifikationen der R500 und R600 Chipserie veröffentlicht, was zum radeonhd-Treiber führen soll, der hoffentlich bald einsetzbar sein wird...

    Habe selber eine GeForce 8600 GT, die ich damals gekauft hatte, weil ich mit dem proprietären Linux-Treiber bisher gute Erfahrungen gemacht hatte (brauche zwar kein 3D, aber TwinView geht nur mit dem Treiber), bin momentan aber schon ein paar Wochen am Suchen nach Infos zu den Radeon-Karten unter Linux...

    Das funktioniert definitiv nicht - DDR333/PC2700 und DDR2-667 bzw. DDR2-800 sind zwei verschiedene Speichertechnologien, die nicht miteinander kompatibel sind. Passen nicht einmal in den Sockel des jeweils anderen. In diesem Fall kannst du bis DDR400/PC-3200 aufrüsten, aber wie lerod schon sagte bringt es keinen Geschwindigkeitsvorteil, da der schnellere Speicherbaustein dann trotzdem nur mit der Taktfrequenz des langsameren arbeitet.

    Quelle: http://de.wikipedia.org/wiki/DDR-SDRAM

    Fürs Editieren der Konfigurationsdateien bieten sich auch die verschiedenen I/O-Slaves an... z.B. KDE KIO oder Gnome VFS... So kann man ohne grafisches Subsystem am Server mit dem auf einem anderen Rechner (z.B. Laptop) installierten grafischen Texteditor die Konfigurationsdateien verändern.

    Wie ich jetzt mit dem XCode hantieren soll ist mir sowieso unklar.


    XCode ist eine komplette Entwicklungsumgebung - für den Anfang würde ich XCode bestenfalls zum Schreiben des Source-Code verwenden, alles andere über die Kommandozeile. So bekommt man einfach mehr Verständnis dafür was hinter den Kulissen abläuft als wenn man in XCode ein Projekt erstellt und das dann per Knopfdruck kompilieren und ausführen lässt.
    Habe Sysprog (und einige andere LVAs) auch unter Mac OS X gemacht, bin mit dieser Strategie immer bestens gefahren :)

    Also die alten LabKits (mit irgendwelchen ncc-nummern :D) wurden über den ISP programmiert, und ich nehme eigentlich nicht an das sich das inzwischen geändert haben sollte, insbesondere da ISP die einfachste und bequemste Art ist, die AVRs zu programmieren (und ich glaube nicht das die inzwischen auf JTAG umgestiegen sind - wobei ich glaube [ich bin heute ein richtig gläubiger Mensch :D] das JTAG auf den AVRs ohnehin die gleichen Pins wie ISP verwendet - aber das müsst ich nachlesen, und dazu bin ich grad zu faul).

    Mit welcher Hardware werden denn die LabKits derzeit programmiert? Ist das noch immer so ein direkter BitBanging-Serial-Programmer, oder ist das inzwischen schon etwas "professionelleres"?


    Habe ein "altes" Labkit (v1.1), welches über SPI programmiert wird (geht eben mit uisp, avrdude mittels Bit-Banging). Die neuen habe ich noch nicht "live" erlebt, weiss nur dass es 2 USB-Versionen gibt (v1.3 und v1.4). Werden soweit ich weiss in der Laborübung nicht über JTAG programmiert, sondern haben mit am Board einen AT98C5131 (v1.3) bzw. einen PIC18 (v1.4) als USB-Controller. Der bekommt von at16prog die Daten über USB (welches dazu libusb verwendet wenn ich mich nicht täusche) und programmiert den ATmega16 über SPI. Die Pins sind übrigens nicht die selben, beim ATmega16 ist JTAG an PC2-PC5, SPI an PB5-PB7.

    Aber: Laut Schaltplan und Layout sind sowohl SPI als auch JTAG herausgeführt, wobei ich bei meinem v1.1 JTAG erst über die Fuses freischalten musste (da in der LU Port C ja anderweitig verwendet wird). Aber SPI müsste trotzdem problemlos funktionieren, da at16prog das ja selber verwendet :)

    edit: Evtl. gehts unter Mac OS X noch am einfachsten mit z.B. sowas: http://www.fischl.de/usbasp/ (hab ich mit Google gefunden, selber noch nicht ausprobiert... aber war eh schon fast 2 Wochen nicht beim Conrad :D)

    at16prog ist ein am Institut für Technische Informatik (glaube im Rahmen eines Projektpraktikums an der ECS Group) entwickelter Programmer, der speziell auf die Microcontroller-Labkits (denke ab Revision 1.3) zugeschnitten ist.
    Um da avrdude zu verwenden (oder uisp, wobei mir persönlich avrdude mehr zusagt) müsste man schauen, ob die ISP-Pins herausgezogen sind, und dann braucht man wie ComSubVie schon geschrieben hat einen USB-to-Serial converter, der Bit-Banging unterstützt (oder einen "echten" Programmer)...

    +1 für Intel :ausheck:

    Habe ein Intel DP35DP mit einem Core 2 Duo E6850 und ein etwas älteres DP965LTCK (P965 Chipsatz) mit einem Core 2 Quad E6600. Bin mit beiden sehr zufrieden, lediglich beim DP35DP wurde der integrierte LAN-Adapter unter Linux (Kernel 2.6.23) nicht sofort erkannt, erst nach Installation des e1000 Treibers.

    Habe mit Asus und MSI in der Vergangenheit schlechte Erfahrungen gemacht (schon einige Jahre her, keine Ahnung obs inzwischen besser ist) und da ich ebenfalls nicht übertakten will passen die Intel Boards ausgezeichnet.

    Features sind bei beiden Boards OK, stabil ist es auch. BIOS wirkt ausgereift. Ausserdem: Scheinbar hat sich Intel so ziemlich als einziger Hersteller Gedanken gemacht, wie man das BIOS ohne Diskettenlaufwerk und ohne Windows updaten kann

    Würde jederzeit wieder ein DP35DP kaufen; allerdings spricht das Compatibility Tool etwas von bestimmten Board-Revisionen beim Q6600 Prozessor; das wäre vor dem Kauf wohl zu prüfen. Die neuen 45nm Core-Prozessoren werden unterstützt, also ist auch Spielraum nach oben vorhanden wenns mal zu langsam werden sollte :)

    Funktioniert es mit dem nvidia-glx-new-Paket, also ohne envy?
    (lässt sich über den restricted-manager oder über 'sudo apt-get install nvidia-glx-new' installieren, der manuell oder mit envy installierte treiber muss aber vorher deinstalliert werden)

    ansonsten: kannst du mal deine xorg.conf posten? Eventuell finden sich da Hinweise.