Beiträge von hal

    Qt ist definitiv das technisch beste (nicht-nur-)GUI-Toolkit weit und breit.

    Dem kann ich als Cocoa-Entwickler mit Qt-Erfahrung nicht zustimmen. Es ist aber das beste cross platform-toolkit, ja. Im Prinzip das einzige brauchbare überhaupt :)

    Diese Lizenzänderung ist auf jeden Fall sehr cool, und könnte auch dazu führen, dass ich mirs für meine Windows-Programme anschau. Windows-spezifische APIs interessieren mich überhaupt nicht, und damit komm ich drum rum.
    Die kommerzielle Lizenz von Qt ist ja völlig indiskutabel, deswegen war das bisher keine Option.

    Zitat

    Und natürlich ist es eine C++API. Zugegeben, vieles davon stammt aus einer Zeit, in der die STL weder featurecomplete noch standardisiert und geschweige denn von allen Compilern unterstützt wurde, und der MOC ist vielleicht der einzig zulässige technische Kritikpunkt.

    Speziell weil ein Precompiler wie moc bei modernen C++-Compilern gar nicht notwendig ist, siehe zB libsigc++.

    Ich hab bei Skype öfters das Problem, dass ich Leute nicht online sehe, obwohl sies sind. Wenn ich sie dann anschreib sind sie plötzlich da.

    Deswegen muss ich immer zuerst via Adium mir den Videochat ausmachen, damit man im Skype dann sicher sein kann, dass der andere da ist.

    bei meiner externen Tastatur, funktioniert zum Beispiel die tab, die Ende und pos1 Taste nicht im Eclipse, diese funktionieren allerdings in den (meisten, die ich ausprobiert habe) anderen Applikationen wunderbar.

    Hmm dass Tab nicht funktioniert hab ich noch nie erlebt, bei Home/End musst aber aufpassen, dass die am Mac normalerweise an den Anfang/das Ende des Dokuments springen. Die richtigen Kombinationen für Anfang/Ende der Zeile sind Cmd-Links/Rechts. (Cmd = Apfeltaste = ⌘)


    Generell: Mitten unterm Projekt (= Verteilte Systeme-Übung in dem Fall) auf eine komplett neue Plattform wechseln ist keine so gute Idee, da passiert genau das was dir passiert ist :) Man braucht einfach eine gewisse Zeit um sich in ein neues user interface einzuarbeiten, speziell wenn es so anders ist wie zwischen Windows bzw den Windows-Kopien unter Linux und Mac OS. Gleiches würde passieren, wenn du zB in Linux mitten drin plötzlich von Eclipse in KDE auf gvim in awesome umsteigst. Da brauchts nicht mal ein anderes OS und du kennst dich schon eine Weile lang nimmer aus :)

    Wenn sich ein paar Leute finden, könnt ich auch einen (günstigen) Cocoa-Kurs anbieten. Wollt ich eh immer schon mal machen.

    FYI, ich hab schon kommerzielle Cocoa-basierte Software entwickelt (bei einer Firma, dies jetzt leider nicht mehr gibt), und verwende momentan sehr viel Core Animation, was vielleicht auch nicht so uninteressant ist.

    Falls wer interesse hat, bitte einfach hier im Fred melden.

    Kann ich mir eigentlich nicht vorstellen. "Hardware sicher entfernen" sorgt doch nur dafür, dass alle Schreibvorgänge aus den Schreibbuffern tatsächlich geleert werden bevor man das Gerät absteckt. Dass also einzelne Dateien zerstört werden, die noch nicht vollständig geschrieben waren, kann sicher sein.

    Aber dass das ganze Filesystem dadurch beschädigt wird käme mir doch komisch vor. So dumm wird Windows nun auch wieder nicht sein, die Daten nicht in einer solchen Reihenfolge zu schreiben, dass im Falle des Falles nicht alles verloren ist.

    Naja, wenn die FAT-Tabelle am Anfang (im Falle von FAT32, bei anderen Dateisystemen gibts etwas ähnliches, heißt aber anders, zB superblock bei ext2/3) nur zur Hälfte geschrieben wurde, steht da ja Mist drinnen. Wenn das Inhaltsverzeichnis nicht mehr verwendbar ist (zB weil du im Hauptverzeichnis was verändert hast, und dadurch auf das nicht mehr zugegriffen werden kann), kann man auf alle Dateien nicht mehr zugreifen, auch wenn die Daten selbst noch alle da sind.

    Zitat

    Immerhin muss ja auch mit Stromausfällen und dergleichen gerechnet werden.

    Ja, deswegen verwenden gute OS auch journalling file systems, da hast du eine reale Chance, auch bei solchen Situationen noch das Dateisystem retten zu können. Windows hat so etwas natürlich nicht.

    Was mich bei der der Sache noch interessiert, glaubt ihr wirklich, dass meine Festplatte aus dem Grund beschädigt worden ist, weil ich die Hardware vor dem Abstecken nie sicher in Windows unter >>Hardware sicher entfernen<< deaktiviert habe?
    Es würde mich halt nur für die Zukunft interessieren, damit ich das dann bei der neuen anders mache.

    Ja, genau das passiert dann. Allerdings wenn das wirklich der Grund ist, hat die Festplatte eh nichts, und nach einmal formatieren sollte sie sie wieder normal funktionieren.
    Wenn Windows das Dateisystem nichtvollständig schreiben kann, weil du es ihm entziehst, dann kann es leicht passieren, dass das Dateisystem irgendwann kaputt ist.

    Ach ja: Immer Backups machen! Dann sind solche Ereignisse völlig egal.

    Na, das war schon ernst gemeint. Ich bin mit RMS nicht einer Meinung (im Bereich, wie ich meine Brötchen verdienen soll), aber die Rechtsstreitigkeiten, wo sie kleine Open Source-Entwickler gegen große Firmen verteidigen und gegen Softwarepatente und übertriebenes Copyright eintreten sind durchaus unterstützenswürdig.

    Vielleicht gehen uns irgendwann die Erfindungen aus, dann wirds langweilig.

    Das ist in den letzten paar Millionen Jahren nicht passiert, ich hab nicht die Befürchtung, dass das in unserer Lebenszeit passieren wird (oder in irgendeiner Generation nach uns, für die es noch eine sinnvolle Bezeichnung gibt).

    Zitat

    Ursprünglich wollte ich Computertechnik studieren und irgendwas mit Hardwareentwicklung machen. Nur leider kann ich mir nicht vorstellen wie z.B. Grafikkarten, Hauptplatinen entstehen. Die Dinger haben mehrere hunderte winzige Bauteile drauf

    Nicht hunderte, eher Millionen.

    Zitat

    und wer entwickelt sie in weniger als 1 Jahr? Mag sein dass es ein Betriebsgeheimnis ist, aber in groben Zügen würd mich das schon interessieren.

    Hmmm vom Forums-Join-Datum her studierst du schon länger als ich und hast das Prinzip dahinter immer noch nicht verstanden? Wenn du ein komplexes Problem hast (wie zB einen Prozessor), dann teilst du dieses Problem in viele kleinere auf, und löst jedes davon einzeln (das geht natürlich auch rekursiv). Bei Teamarbeit (was ja größere Produkte immer sind) machen verschiedene Leute verschiedene Teile des Produkts. Ich weiß es zwar nicht konkret, aber ich könnte mir vorstellen, dass zB bei Prozessoren eine Person nur für Integer-Divisionen zuständig ist, eine nur für Float-Additionen, etc.
    Weiters können auch meistens Teile von früheren Projekten übernommen werden, deswegen kann man so schnell wieder neue Prozessoren rausbringen. Bei Prozessoren kommt noch dazu, dass man viele Teile mehrfach verwenden kann. zB quad-Prozessoren sind einfach 4 Prozessoren, wo man einfach viermal das gleiche Ding drinnen hat mit einem Teil, der von allen geshart wird. Deswegen sind die auch so regelmäßig vom Aussehen her:
    [Blockierte Grafik: http://lordaeon.files.wordpress.com/2008/01/phenom-die.jpg]
    Bei Software sollte man so etwas nicht machen, da kann man einfach den gleichen Codeteil mehrfach aufrufen.

    Die Ironie der ganzen Sache ist, daß Studium auf einer wissenschaftlichen Ebene basiert, aber die Forschung ist neues Wissen zu erschaffen. Wozu brauch ich dann zu studieren?

    Du musst mal den state of the art kennen, damit du was neues erfinden kannst. Rad wiedererfinden und so Zeugs sollte man vermeiden.

    Zitat

    Wahrscheinlich habe ich mich für das falsche Studium entschieden. Ich kann leider die Informatik nicht mit Forschung verbinden, Programme basieren ja nur auf Simulationen.

    Also im CG-Master hab ich fast nur mehr geforscht, und wenig entwickelt. Im Bak ists eine andere Geschichte, das sind ja nur die ersten Basics, die jeder wissen muss, der Forschen will (im entsprechenden Bereich).