Beiträge von Lord Binary

    Zu diesem Thema noch ein paar Bemerkungen:

    1) Natürlich hat jeder AP eine hardwaremäßig beschränkte maximale Sendeleistung, die typischerweise bei etwa 30-600 mW liegt.

    2) Sind aber softwaremäßig auf etwa 30-80mw "gedrosselt"
    Mittels original-FW bzw ohne Tricks kann man sie wenn überhaupt nur noch weiter runterdrosseln, aber nicht erhöhen.

    3) Insbesonderne weil's gesetzliche Vorschriften bezüglich maximaler Sendelestung gibt, asfaik 100mw
    (ob die Überschritten wird hängt natürlich auch noch von der Antenne ab)

    4) Wie schon angesprochen, bei machen AP's gibts alternative Firmwire oder andere (nicht dokumentierte) Tricks wie man die Sendleistung dann doch (über die Herstellerangaben) erhöhen kann.

    5) Vorsicht 1:
    Mache AP's sterben dann bei erhöter Sendeleistung ohne zuästzliche Kühlung schnell einen grausamen Hitzetod :(

    6) Vorsicht 2:
    Bei erhöhter Sendleistung über den Herstellerangaben wird zwar tatsächlich die Reichweite/Signalstärke erhöht, aber die effektive Datenrate bricht oft dramatisch ein.
    (Der Bereich zwischen Rauschen und Signalpeak wird leider auch erhöht).

    7) Kann nicht oft genug wiederholt weden: Die Kommunikation ist Bidiretional !
    Bei mieser WLAN Karte nützt ein "Aufmotzen" der AP's recht wenig.

    8) Bezüglich erhöhte Sendleistung, gesundsheitschädlich ?!
    Zum Vergleich: Die Sendeleistung von Handys beträgt bis zu 2W, also ca 20mal stärker. (soll noch nichts heissen)

    9) Kenn' den WRT54G ned :D

    Mfg, LB

    Ich hab
    diesen Lüfter da
    statt dem Originalüfter (viel zu laut und nervig) eingebaut. (Radeon 9800).
    Bin sehr zufrieden damit, praktisch geräuschlos.
    Mit Erfahrugnen mit anderen Lüftern kann ich leider nicht dienen.

    Ist allerdings ein ziemlich teurer Spaß, hat so ca 30€ gekostet.
    Aber wesentlich(!) billiger sind da andere VGA-Lüfter glaub ich' auch nicht.

    Insbesondere blöd, weil eine neuwertige, rein passiv gekühlte 9600'er Radeon "schon" ab ca 70€ zu haben ist.
    (Siehe da).

    Folgendes Problem ...

    $L(\overline{s} \ \overline{n-m})$

    sollte Ausgeben:
    L(s n-m)
    mit s "overlined" und "n-m", zwischen s und n-m ein Leerraum.

    Das tut es auch, aber die Overlines sind nicht in gleicher Höhe, das sieht hässlich aus :(
    Weiß jemand, wie ich das erzwingen/erreichen kann ?

    Mit
    $L(\overline{s \ n-m})$
    Sind zwar die Overlines auf gleicher Höhe, aber es gibt keine Unterbrechung der Overlines :(

    Zitat


    wenn richtig konfiguriert leisten sie guten Dienst

    Die meisten (die ich kenne, es gibt da aber sehr viele) blockieren schon in der Default-Einstellung jeglichen Traffic, der von Außen kommt ohne vorher von "Innen" initiert worden zu sein.
    Das alleine das ist schon viel wert.

    Ich vermute mal, es geht hier um eine HW-FW die in so einem eher billigen 30-150€ Router/Gateway integriert ist.
    Nicht etwa eine "explizite", meist empfindlich teure (1000€++ sind nicht unüblich) HW-FW.
    Im Folgenden bezieh' ich mich eher auf diese "Billigen".

    Da die Dinger meist unflexibel sind und "weniger können" als die meisten PF's, (das wäre eher ein Nachteil, aber da könnte man vermutlich lange diskutieren), sind sie im Gegenzug m.E auch leichtzer (sinnvoll) zu konfigurieren als die meist vergleichweise komplexeren Software-FW's. (das wäre wieder eher ein Vorteil)

    Zitat


    worauf wartest du?

    Genau :)
    Schaden tut's auf keinen Fall.
    Selbst wenn's zusätzlich zu "Software-FW's" jeglicher Art verwendt wird, macht's IMHO Sinn sie einzuschalten.

    Weitere Vorteile:
    Durch Exploits der SW-FW's können/könnten nicht nur die FW's Umgangen werden, sondern praktischerweise auch gleich Rootrechte oder ähnliche Nettigkeiten auf dem Zielrechnern erlangt werden.
    Das geht natürlich bei HW-FW's (meistens!) nicht.
    Zugegebenermaßen nicht sehr wahrscheinlich und daher eher(!) ein theoretischer Aspekt.

    Nachteile:

    Wie schon angesprochen, sind sie bei weitem nicht so flexibel wie SW-FW's.
    Mit komplizierten FW-rules ist nix.
    Meist nur portbasierend.
    Logging ist fast immer nur rudimentär oder gar nicht sinnvoll vorhanden.

    Halte HW-FW'S jedenfalls für "eine gute Idee" :)

    Nun, selbst ich als "böser PF-Hasser" verwende PF's öfters, völlig sinnfrei sind sie eh nicht ...
    (Ja, ja, Wein trinken, Wasser predigen und so ... :D)

    z.B
    Muß meinen Laptop oft an fremde Netze anschliessen, von denen ich keine Ahnung hab wie sicher/unsicher sie sind.
    Da bleibt keine Wahl, außer eine PF zu verwenden.

    Um auf die "Schnelle" einen ersten Eindruck zu erhalten, ob ein Programm "chatty" ist oder nicht, sind sie sehr praktisch.

    etc,etc,etc, blablabla :)

    Naja, im Sinne von "Debatte beenden" werd' ich mich eher kurzhalten ... und nicht detailiert auf jeden Punkt eingehen, aber es gibt noch ein paar Dinge die mir wichtig sind klargestellt zu haben.

    a) Ich bin der Meinung, daß PF's "eine schlechte Idee sind".
    Das heißt aber nicht, daß "überhaupt keine FW benutzen" eine gute Idee ist. Im Gegenteil, es ist eine noch schlechtere Idee. Daher bin ich auch der Meinung, daß eine PF besser ist als gar keine FW.

    b) Es ist nicht wirklich schwer, Trojaner/Viren etc durch PW's durch zwangsweise offene Ports/Applikationen
    (z.B http/browser) zu schleussen.
    (Daß es meines Wissens nach noch keine Würmer etc gibt, die das ausnützen macht's nicht sicherer/besser)
    Das geht in die Richtung PW's sind als alleinige Security Maßnahme ungeeignet.

    c) Dienste unter Windows abschalten halte ich für keine gute Idee. Das gibt besch*** (subtile) Probleme.
    Auch wenn's im allgemeinen natürlich ratsam ist, keine Unnötigen Dinge laufen zu lassen, bei Windowsdiensten funktioniert das einfach nicht (ohne böse Nebenwirkungen).
    Da hat WB völlig recht.

    d) Bei mir erledigt meine Linux-Server-Kiste das Firewalling/IDS/... (und natürlich noch viele andere nicht FW-Dienste)
    Wieviel Resourcen das verbraucht ist mir herzlich egal, auf der Machine arbeite ich nicht.
    Dadurch erspar' ich mir PF's auf allen Desktops.
    PF's sind zwangsweise recht systemnah programmiert - immer schlecht. Bzw je weniger Treiber/tief ins System eingreifende Apps laufen, desto besser.
    PF's kann ich nicht zentral verwalten, verbraten Ressourcen, öffnen Exploits, etc, etc.
    Bin mir gar nicht sicher, ob meine FW wirklich "sicherer" ist, als eine 08/15 PF. Denke schon, aber letzlich ist's mir schlicht und einfach egal ...
    Wenn ein halbwegs fähiger Mensch sie umgehen will, wird er das so oder so schaffen ...

    e) peace ;)

    Sorry, ist doch ned so kurz geworden wie geplant;)

    Zitat


    Abschließend: PersonalFirewalls sind UNNÖTIG.

    Schön wär's wenn sie nur unnötig wären :)
    Ich meine, sie sind sogar gefährlich.
    Sie machen schöne neue exploits möglich, die es ohne sie nicht gäbe.
    Man wiegt sich üblercherweise in falscher Sicherheit
    Sie verbrauchen viel (zu viel) Resourcen ...

    Zitat


    DAchte mir das ich bei ihm einfach aufkreutze und ihn dort kaufeund gleich frage,ob ich ih nnicht gleich hier ausprobieren kann um zu schauen,wegen Pixlefehlern und so....

    Bitte erzähl' uns doch was dabei herausgekomemn ist :)

    Hab' mir neulich einen TFT zugelegt, und war ziemlich entäuscht, daß das kaum einer gemacht hat (Pixeltest) :(
    (z.B NRE/Ditech, Fehlanzeige)
    Deshalb wärs beim GA a.f interessant ;)

    Beim Digitrend ging's, der ist auch in TU-nähe/gegenüber FH (tatsächlich aber wo anders gekauft)

    Argumente: Wenn es Dir wert ist, daß dich 20 Euro ein paar Jahre Deines Lebens kosten -- wegen extremen Herumärgerns im Problemfall (gerät defekt/Mangelhaft) --- nur zu und viel Spaß :)

    BTW: Wenn beim GA lagerd dort steht, heißt das noch laaaaaange nicht, daß das wirklich so ist.

    BTW^2: Ich bin der teuflichen Verführung --- ist ja gleich um die Ecke und ich erspar's mir zum NRE/ditech/whatever zu fahren (bzw zu warten bis ein Onlinehändler liefert) auch schon ein paar mal erlegen ...und hab's eigentlich immer bereut.
    Jo, man kann's anfangs echt nicht glauben daß der "wirklich so schlimm" ist ... ist aber so ...

    Zitat


    Hast du alle notwendigen Schriftarten installiert?

    Die da wären ?
    Würd mich interessieren.

    Hatte das selbe Problem nach meiner frischen Debian Installation.
    Wie wild alle möglichen und unmöglischen Schriftarten installiert, und irgendwann war das Problem gelöst.

    Nur wärs halt interessant zu wissen, ob's da eine bessere Methode gibt.

    Danke für die Erklärung, jetzt ist's (mir) vollständig klar :)

    Theoretisch könnte man sogar die Rekursion völlig loswerden.
    Natürlich nicht im Sinne von: jede Rekursion kann iterativ hingeschrieben/aufgelöst werden.
    Stichwort:Forward Radix Sort with Groups (Seite 4).

    Bringt aber vermutlich wenig bis gar nix.

    Denn Disc-I/O ist hier das entscheidende Bottleneck.
    Die wesentliche Optimierung ist daher, daß Indizes mit nur einem Eintrag nicht weiter verfolgt werden.
    Die gibt's genauso bei dieser Variante. (und nicht mehr)
    Ob die reine CPU Zeit jetzt 3 Sek oder 1.78 Sek ist, ist wohl schnurz.

    Jedefalls dürfte Deine Lösung ziemlich optimal sein :thumb:

    [EDIT]
    btw: verglichen damit sind hashsummen-basierende Methoden dermassen mies, das es sich gar nicht lohnt, sie auch nur optional anzubieten.
    Abgesehen davon, daß sie nicht 100% exakt sein können,
    muß man jedes Bit jeder Datei einlesen.
    [/EDIT]

    marvin: genau :)

    Preis/Leistung (Hardware) -> endlich mal ok
    Design: Verdammt cool/gut :)

    Aber selbst wenn ich mir das nette Teil zulegen sollte (ist echt verlockend),
    mit MACOS'en kann/konnte ich mich nie anfreunden, ergo würd' da sowieso ein Linux draufkommen.
    Also sicher nix mit Switchen, selbst wenn ich mir das Ding kaufen sollte :>

    Allerdings kriegt man einen vermutlich uns selbe Geld einen leistungsfährigeren Barebone-Mini-PC.

    Achja, weiß jemand wie laut/leise das Ding ist ?

    jeuneS2
    thx :thumb:

    Dein Lösungsansatz interessiert mich natürlich ...
    Aber aus dem Sourcecode schlau zu werden ist ein bissi challenging :shinner:

    Funktioniert das etwa so ?

    Eine Datei wird als eine einzige "Riesenzahl" (bzw Riesenschlüssel) angesehen, alle zu unterschuchenden Datein werden mit einem Radix-sort ähnlichem Ding sortiert ?
    Dann einfach die mit Mehrfachvorkommen ausgeben.

    Scheint jedenfalls eine clevere und effiziente Lösung zu sein :thumb:

    Randbemerkung die vermutlich unter "feel free to improve" fällt: funktionierts auch mit files über 31/32 bit filesize ?

    Mfg, LB

    @Wings: Ja, das bedeutet es für Passwörter :)

    Ist ja auch klar, wenn sie kollisionsfrei wären, könnte man ALLE Daten beliebiger(!) Größe in eindeutigerweise auf die meist nur ein paar Bytes geringe Hashsum-Größe abbilden. (z.b 16 Bytes MD5, 4 Bytes CRC32)
    Das kann grundsätzlich nicht gehen.
    Bei kryptographischen Hashsums (z.b MD5) , ist es aber extrem schwer - by design - zwei msgs mit der selben hashsum zu berechen(!). Zufällige Kollision sollten möglichst unwahrscheinlich ein.
    Defakto sicher ist es "eher schon" - Passwörter mit guten hashsum Algorithmen zu speichern. Kommt natürlich drauf an, wie sicher man es braucht.

    Beispiel für eine "Attacke"

    Danke :)

    Die Idee hatte ich auch schon, und wieder verworfen.
    Grund: Hashsummen sind so designed, daß jedes Bit, das unterschiedlich ist, die Hashsumme maximal verändern soll.
    Das heißt aber auch, daß jedes Bit eingelesen werden muß.
    Genauso wie beim simplen Byte vergleich.
    Aber es kommt bei den Hashsummen noch ein wenig MEHR Rechenaufwand dazu.

    [EDIT]
    Letzlich hast recht, (eventuell doch eine gute Idee), es verringert ja das n, das quadratisch eingeht mit linearem Aufwand.
    [/EDIT]

    Sind aber alle nicht wirklich Freeware. (höchstens free trial, und das ist dann auf 100 Files oder so beschränkt)
    Schon gar ned opensource.

    Effizenz-Problem ist dieses: (bei meinem Ansatz)
    ( Das ist eher grundsätzlich algorithmischer Natur, sonst würd ich's nicht beschreiben, denn bei der Umsetzung sind der Ineffizenz keine Grenzen gesetzt :>)

    Zuerst bilde ich Äquivalenzklassen bezüglich Filesize.
    Solche mit einem Element werden natürlich nicht weiter betrachtet.

    Speicher ist hier kein Problem.
    Für 1000000 Files -> 8 Byte * 10^5=0.8MB.
    Tatsächlich muß natürlich auch der Filename+Pfad gespeichert werden, da gibts ein Limit von knapp unter 300 Bytes (das kommt vom Windows-Kernel)
    Also worst case braucht Filesize+Filename ca 300 Bytes.
    Das ergibt bei 10^5 Files ca 29MB Speicherbedarf.
    Das ist zwar nicht wenig, aber auch kein großes Problem.
    Tatsächlich brauch ich bei meiner HD, ca 300.0000 Files, 10MB Speicher dafür.

    Das geht soweit ratz fatz :)

    Aber dann ?

    Innerhalb der Äquivalenzklassen echter Byte-for-Byte Vergleich.
    Soweit ist das die selbe "Idee" die Zentor kurz beschrieben hat.

    Jetzt kommt das Problem:
    IMHO läßt sich's nicht vermeiden innerhalb einer Äquivlanezklasse bzgl Filesize "alle mit allen" zu vergleichen.
    Hat eine Klasse n Elemente, n^2/2 Vergleiche.
    Es kann natürlich innerhalb einer Äquivalnzklasse bzgl Filesize max n/2 neue Äquivelnzklassen bzgl Echter Identitent geben.
    Also sein z.b 100 riesen Files a 1GB mit selber Filesize auf der HD, die tatächlich 50 Paare von identischen FIles sind.
    Dann muß 5000*1GB geladen werden :(
    Das dauert vermutlich eine halbe Ewigkeit.
    Nichteinaml ansatzweise Chance die alle im RAM zu halten.

    Auch wenn das eher unwahrscheinliche worst-case Szenarien sind, die große Frage ist halt ob's da Bessers gibt, das vorallem den quadratischen Aufwand vermeidet.

    Falls da jemand schlaue Ideen hat -> feel free :)