[Wikide-l] serverersparnis durch p2p

Daniel Marcel Eichler shirow at gmx.net
Do Jun 22 12:53:19 UTC 2006


Johann H. Addicks wrote:

>> Das ist nicht so wirklich schwierig. Man muesste einfach eine Lokale
>> Kopie der WP installieren, mit Daten füllen
>einmalig ist das nicht so das Problem für einen richtigen Nerd. Der
> bekommt das auch unter Windows mit einem XAMP hin... mit Gebastel...

Echt? Also ich sowas das letzte mal jemanden unter Windows einrichtete, 
war die grösste Hürde herauszufinden woher ich ein fertiges WAMP-Paket 
bekomme. Naja, ok, das Copy n'Paste um den nach langer suche gefunden 
Dump der WP-DB zu überspielen war schon etwas aufwaendig ;)

So schwierig ist das wirklich nicht, da muss man auch kein Nerd sein. Eine 
Suchmaschine bedienen reicht aus. Aber vielleicht hat sich da ja 
mittlerweile auch was geaendert?

>> und bei jedem Zugriff auf die
>> Wikipedia prüfen ob man gerade On- oder Offline ist.
>Das ist schon mehr Gebastel. Dafür braucht es dann noch zusätzlich einen
> lokalen Squid, der ein failover "auf lokal" macht.

Ja.
Man kann natuerlich flexibel sein und selbststaendig waehlen welche 
Version man benutzt.

>> einen Laptop suboptimal. Staendig so einen dicken Fisch wie die
>> Wikipedia samt anhaengendem Server und PHP laufen zu lassen zieht
>> unnötig viel leistung. Eine art MediaWiki-Light waere da sinnvoller.
>Es würde ja sogar eine Static reichen, da täte es dann auch der
> "simpelste Webserver der Welt".


Möglich, aber dann wird man wohl auf die Suche verzichten müssen. Und das 
ist doch eigentlich das Highlight ;)

>> Wie aktualisiert man einzelne Artikel aus der Wikipedia mit einem
>> Lokalen Archiv effizient? Gibt es da irgendeine API die den Artikel
>> direkt liefert oder muss man sich da am Edit-Modus vergreifen?
>Das wäre ein schönes Projekt für Googels "Summer of Code" gewesen.

Also gibt es da immer noch keine Lösung? Schade.


mfg

Daniel