Beiträge von Kampi

    zu diesem thema findet man ja allerhand beitraege, nur sind die meisten nicht mehr aktuell. mich wuerde es interessieren, ob es aktuelle gruende gibt, warum man aptitude bevorzugen sollte. debian raet ja zu aptitude, ubuntu bevorzugt eher apt-get. der einzige grund der imo wirklich fuer aptitude sprach war, dass verwaiste pakete beim deinstallieren besser ausfindig gemacht werden konnten (zusaetzliche schicht bei aptitude). laut meinen informationen wurde dieses manko aber in neueren (ubuntu) versionen bei apt-get ausgemerzt.

    schlussfolgerung: auf debian-systemen ist aptitude _noch_ die bessere wahl bis "autoremove" in debians apt-get einzug gehalten hat, bei ubuntu ist apt-get nicht schlechter als aptitude. so weit richtig?

    es gibt natuerlich "vorteile" bei aptitude, die mir persoenlich unwichtig sind wie:
    *) ncurses gui: brauch ich nicht, "apt-get install -s $FOO" reicht mir. vielleicht habe ich zu lange mit gentoo-portage und bsd-ports gearbeitet um den vorteil einer gui zu erkennen...
    *) "search" ist integriert(er): toll, ich kann aber "apt-cache" bedienen.
    *) angaeblich besseres stdout-format auf der konsole. naja, hatte da mit apt-get nie probleme.
    *) es ist langsamer als apt-get ;)

    hab ich vorteile uebersehen, oder gehoeren die wirklichen vorteile von aptitude der vergangenheit an?

    ein wenig html, sonst pascal und delphi. ich hab mal vorgeschlagen java zu machen, das wurde aber abgelehnt. tja, so neumodernes zeug konnte der inf-lehrer halt ned.

    sonst war es recht gemuetlich. wir sind immer zu zweit vor einem rechner gesessen und haben programmieraufgaben bekommen. mein kollege, ebenfalls spaeterer informatikstudent und ich waren recht flott fertig und waehrend die anderen noch rumgebastelt haben hab ich mich auf ftp-servern nach mp3s umgeschaut. die schlechte alte zeit in der man noch up/download ratio erfuellen musste um an mp3s zu kommen. dann die neuen musikstuecke mit "arj" auf 30 disketten verteilt und dann zu hause unter gnu/linux mit dosemu entpackt. 29/30 => CRC Error. KRAWUM, wieder alles umsonst ;)

    meist ist es sinnlos ueberhaupt in vorlesungen zu gehen, noch sinnloser ist es ein notbook mit zu nehmen. mir ist nur ein fall untergekommen, den ich als sinnvollen einsatz erachten wuerde: in codierungstheorie, wo es kein skript gab, hat einer in realtime in latex mitgeschrieben.

    von 14 - 18 hab ich PC-Magazin gelesen, so ab 16 oder 17 das linuxmagazin (bis zur aufspaltung). am anfang vom studium C't bis zu dem zeitpunkt an dem mir vorgekommen ist, dass es frueher interessanter war. die letzten 5 jahre hab ich kein abo mehr. wozu auch? interessante news bekommt man online viel schneller. dazu lese ich digg. und loesungen zu speziellen problemen findet man im netz auch viel schneller.

    hin und wieder verschlaegt es mich auf http://www.freesoftwaremagazine.com/ und ein freund von mir war vor kurzem ganz begeistert von "technology review".


    Hat es eigentlich Einfluss auf die Latenzzeiten bei Echtzeitanwendungen (z.B. Spielen mit Midikeyboard), wenn ich meine Platte verschlüssel?


    definiere echtzeit. ;)

    <wischiwaschi-antwort>
    zusaetzliche layer sind immer problematisch, werden in dem fall wohl keine auswirkungen haben.
    </wischiwaschi-antwort>

    das mit der echtzeit ist so eine sache... wenn du wirklich interesse an realtime und linux hast, dann verweise ich dich mal auf folgende seite:
    http://www.realtimelinuxfoundation.org/variants/variants.html

    besonders "RTAI" und "RTLinux" sind die alten klassiker. wenn du gar uebermotiviert bist, dann kannst du auch einen blick auf den RT-branch der kernel sourcen werfen. nette leute die sich damit beschaeftigen. die die ich kenne trinken gerne bier. was sie da im kernel so treiben ist mir meist zu hoch. viel spasz damit.


    Zu dem Thema hab ich auch schon einen Bekannten interviewt der sich bei Limewire ein Lied geladen hat und danach 3000€ blechen durfte.

    solche geschichten hoert man immer mal wieder. angaeblich ist das auch einer bekannten der mitbewohnerin meiner freundin passiert. ein wirklich stimmiger fall ist mir aber selbst nicht bekannt. ich waere also fuer zusaetzliche informationen dankbar.

    laut dem was ich gelesen habe ist der download in OE noch voellig legal, man muss im gegensatz zu DE nicht mal sicher gehen, dass die musik von einer legalen quelle kommt. aber ich bin kein anwalt und nach 2 minuten gesetzestext lesen wirds mir leider meist schon wieder zu langweilig.

    auch wenn ichs nicht richtig empfinde, werd ich trotzdem bald mal den upload-teil aus rtorrent/libtorrent rauspatchen :-/

    selber probiert hab ichs noch nicht (keine kohle fuer ein vernuenftig groszes raid nach meinen vorstellungen), aber freenas find ich eine nette idee:

    FreeNAS is a free NAS server, supporting: CIFS (samba), FTP, NFS, AFP, RSYNC, iSCSI protocols, S.M.A.R.T., local user authentication, Software RAID (0,1,5) with a Full WEB configuration interface. FreeNAS takes less than 32MB once installed on Compact Flash, hard drive or USB key.

    Auf basteln steh ich eher nicht so...


    pock i ur ned. bam, Hands-On Imperative, oida!

    hast du nach der installation vielleicht dateien von einem backup wiederhergestellt? ist nur geraten, aber es schaut aus als ob irgendwie checksummen gespeichert worden waeren und die nicht mehr zusammenpassen. warum die nicht mehr passen kann mehrere gruende haben.

    mein rat: java deinstallieren und neu installieren.

    php lernvideo find ich auch lustig. hm, assembler, flex und yacc lernvideos waeren auch witzig.

    warum willst du ein video? kauf dir ein buch. oder noch besser, verwende einfach das internet und google. ich hab zwar mit php nicht viel am hut, aber antworten auf meine fragen hab ich mir bisher in zirka 5 minuten ergoogln koennen.


    Andererseits: Eine neue Linux-Version zu installieren heißt entweder einen neuen Kernel einzubauen oder (unter Debian) apt-get dist-upgrade.

    auf die gefahr hin dich jetzt ein wenig zu verwirren sage ich dir trotzdem dass es kein "entweder oder" ist, sondern dass "eine neue linux-version einspielen" genau einen neuen kernel einspielen bedeutet und sonst nichts. mit "apt-get dist-upgrade" installierst du eine neue version deiner (gnu/linux) _distribution_. die wird wohl auch ein linux update beinhalten, sprich es wird wohl auch ein neuer kernel, der eben linux heiszt, installiert werden.

    In source revisioning-trees sind generierte files nie drinnen, d.h. du musst da immer autoconf/automake ausführen, wenn das Paket diese verwendet.

    Ich hab schon öfters development-Versionen von diversen Paketen verwenden müssen, da kommt man mit sowas viel in Kontakt.

    na komm schon, fuer wie unfaehig haeltst du mich dass du glaubst das ist mir neu? ich dachte eben an den fall dass jemand der autotools verwendet hat dann eben die configure.ac nicht mitgeliefert hat. sollte bei "make dist" nicht passieren, ich hab aber schon ein paar solcher tarballs erlebt. deshalb hab ich ja in dem fall auch mit der unfaehigkeit des entwicklers argumentiert. ich denke so sollte meine argumentation klarer sein. dir ist es aber um die auf-/abwaertskompatibilitaet gegangen und da hast du schon recht, man endet schnell mit X versionen der autotools.



    Naja, wenn dus verwendest, zwingst du das ganze auch jedem auf, der deine Software verwenden will, insofern isses nicht nur ganz deine Entscheidung.

    wenn mich der auftraggeber/das projekt ansich zwingt etwas anderes zu verwenden, dann muss ich das notgedrungen tun. wenn ich aber die freie wahl habe, dann nehme ich das meiner meinung nach beste tool. und das sind bei mir, wie bei vielen anderen, eben die autotools. du drueckst mir so gesehen ja dann auch deine handgeschriebenen Makefiles aufs aug obwohl ich lieber autotools haette. das ist in beiden faellen einfach "take it or leave it".



    Das passiert ganz selten, aber wenn verwend ich meistens einfach normale (handgeschriebene) Makefiles.

    das geht lange schneller, lange geht es gut. macht man spezielleres und will grausliche unixe auch an board holen geht es leicht in die hose. das hat mir zumindest meine erfahrung gezeigt. und hat ein projekt eine gewisse schwellengroesze erreicht, die nicht gerade grosz ist, dann ist man mit autotools so und so schneller und komfortabler unterwegs. es sind oft schon kleinigkeiten die handgeschriebene Makefiles ungut machen koennen.

    wo werden bei dir die binaries und manpages installiert? hast du das hardcoded?


    Ja, aber nur "make" ohne irgendwas ist auch ganz nett. 9/10 der Checks, die autoconf macht sind sowieso komplett unnötig und im code gar nicht integriert.

    hm, bei mir tut autoconf eigentlich das was ich ihm sage. ein paar standardchecks sind dabei, aber dann teste ich ja ohnehin gezielt auf die sachen die ich brauche. also wie du auf 9/10 kommst ist mir schleierhaft. checks fuer die es keine macros gibt schreibt man sich btw im guenstigsten falle mit einer zeile code. (hab extra in einem meiner projekte nachgeschaut).

    abschlieszend noch dieser link. liegts vlt. dran dass es GNU-tools sind? ersetz beim lesen einfach GNU durch Apple und autotools durch itools, vlt. wirst du dann auch noch ein fan davon :P

    Äh, keine Ahnung wie du auf die Idee gekommen bist, dass ich über das geredet hab. Um irgendwelche wichtigen fehlenden Dateien ist es doch überhaupt nicht gegangen?

    dann hab ichs wohl falsch verstanden. diesen teilsatz hab ich eben so interpretiert:

    Zitat von hal

    was natürlich besonders toll ist, wenn man fremde Pakete bekommt, wo man das configure-script neu generieren muss (zB weil mans aus dem repository bekommen hat).

    bei "configure-script neu generieren" hab ich eben an ein fehlendes configure.ac gedacht.

    is aber wirklich sowas von wurscht. ich mag autotools, du nicht. so what?
    was mich noch interessiern wuerde ist was du dann fuer tools verwendest falls du code schreibst der nicht nur aufm mac laufen soll. (so du solchen code fabrizierst). cmake? oder gibts da noch was besseres das mir noch nicht untergekommen ist? im FOSS bereich haben ja die autotools einen riesigen marktanteil und im prinzip bauen ja recht viele paketmanager in einer gewissen weise auf die autotools auf und wenn es nur darum geht einfach binaerpakete ausm source zu bauen ist man schon gluecklich wenn man die klassiche "./configure && make" chain vor sich hat.