ich hatte zeitweise Knapp 3.000 Seiten in einem Namespace, diese hatte ich importiert und dann per Shellscript indiziert.
Ich hatte keine Probleme, das Wiki lief auf einem kleinen vserver mit einem Memory Limit von ca 128 MB pro PHP Prozess und knapp 500 Besuchern mit Knapp 10-20 Seitenaufrufen pro Besucher.
Selbst die Ajax Suche kam gut damit klar.
Sollte die Suche zu sehr auf die Performance gehen kannst du hier immernoch mit Solr arbeiten.
das ist in den meisten Wikis die ich kenne so gelöst, das man bei Beteiligung auf die jeweilige Nutzerseite schreibt, die der Nutzer im idealfall abboniert hat.
Ich benutze bei einem meiner Wikis sogar noch ein getrenntes Forum zur Kommunikation.
Wie hattest du dir das denn vorgestellt? Wo sollen die Nachrichten auftauchen? Ich kenne Confluence leider nicht und weiss nicht wie die es da machen.
wenn du uns erzählst wie deine Hardware aussieht und was du mit hohen Besucherzahlen meinst, kann ich dir eine Einschätzung dazu geben.
Bei einem kleinen Server mit nicht viel Speicher liegt die Datenbank auch die meiste Zeit auf der Platte.
Meinst du mit "Ausgabe über Cache ausgegeben" einen Proxy der die Inhalte Cached oder den Cache beim Benutzer.
Beim Einsatz eines Cache Proxys übernimmt ja dieser die meiste Last, bei wenigen Edits lassen sich die normalen Sieten als statischer Inhalt ausliefern, was dir nochmal die Last vom aktiven Webserver nimmt.