Später werde ich über Admin - disableactions "Registrieren" markieren und interessierte user manuell aufnehmen. Ist das so ok und hinreichend sicher?
Das ist schon mal der richtige Weg. Ob das ausreichend sicher ist, ist eine Frage, die schwer zu beantworten ist. Firefox hat schon recht, wenn es angibt, dass die Datenübertragung unsicher ist. Denn sie ist nicht verschlüsselt, was grundsätzlich die Möglichkeit eröffnet, dass jemand die Daten mitliest und die gewonnenen Informationen missbraucht. Der Angreifer kann sich theoretisch auch dazwischen setzen, was aber nur bei wirklich unmittelbar sensiblen Daten (z.B. Banking) von Interesse ist.
Bei DokuWiki bestünde die Gefahr darin, dass der Lauscher die Admin-Zugangsdaten erfährt. Wenn er sich dann auch noch die Mühe macht, PHP-Scripte in Wiki-Seiten einzubauen, könnte er den Webserver im Prinzip beliebig manipulieren. Ob sich dieser Aufwand allerdings für einen Hacker lohnt, bei einer Webseite, die nur ein paar Handvoll Besucher hat? Immerhin muss er ja erst einmal einen physikalischen Zugang zu der Datenübertragung haben. (Das kann in einem Mehrfamilienhaus aber auch schon im Keller durch Anzapfung einer offen liegenden Telefon- bzw. DSL-Leitung geschehen.)
Das Ausschließen von Webcrawlern geschieht im einfachsten Fall über eine Datei namens
robots.txt, die man in das Wurzelverzeichnis des Wikis legt und den folgenden Inhalt hat, wenn alle Suchmaschinen von allen Webseiten ausgeschlossen werden sollen:
User-agent: *
Disallow: /
Auch das ist eben keine Sicherungsmaßnahme, sondern nur ein Bitte, an die sich die (seriösen) Crawler aber halten. Die haben ja selbst ein Interesse daran, nur relevante Inhalte einzulesen.
HTH - Michael Sy.