Weblogs

NGINX inline robots.txt

Eben schnell eine „allen Spidern - alles verbieten“ -robot.txt anlegen?

geht auch in der nginx-conf kurz und gut:

    location = /robots.txt {
            return 200 'User-agent: *\nDisallow: /\n';
    }

Zusätzlicher Vorteil: Egal ob die Anwendung in eine robots.txt erstellt bzw. mitbringt oder nicht, nginx liefert nur disallow all aus.

Diceware

Eine schöne herangehensweise gute Passwörter zu finden ist: Diceware. Basierend auf einem Wörterbuch und mit nur einem guten Würfel, läßt sich offline ein merkbares Passwort erzeugen. Der herkömmliche Trick mit Passphrasen hat den Nachteil einfach per brute-force knackbar aber dabei relativ schwierig merkbar zu sein.