[Wikide-l] serverersparnis durch p2p

Florian Feldhaus florian.feldhaus at udo.edu
Mi Jun 21 00:21:09 UTC 2006


Am 20.06.2006 um 20:30 schrieb dbenzhuser:

> Robert "BuRnEr" Schadek schrieb:
>> Und zwar dachte ich mir, schon vor einiger zeit, dass man doch die
>> artikelverteilung durch ein p2p netzwerk erledigen könnte. ich hab  
>> zwar
>> nicht so die ahnung von p2p netz und so weiter, aber ich hab mir ein
>> paar weiterführende gedanken gemacht.
>
> Ich glaube nicht, dass ein p2p-Ansatz hier helfen kann. p2p ist dort
> erfolgreich, wo es vor allem um Bandbreitenbeschränkungen geht, bei
> gleichzeitig relativ einfacher Verwaltung. Es ist also sinnvoll und
> erfolgreich beim Verteilen großer Dateien, statischer Seiten und dem
> langfristigen Halten von Daten.
>
> Bei Wikipedia ist es eher anders herum: Die Datenmenge ist sehr viel
> weniger ein Problem als die Rechenpower, die für Syncronisation,
> Datenbanken etc. drauf geht.
> Seiten per p2p mit dem aktuellen Stand anzubieten würde die Sache  
> sogar
> ausbremsen: Statt einiger weniger Squids müssten tausende
> Verteilerclients aktuell gehalten werden, wenn du nicht 2 Wochen  
> warten
> willst, bis sich ein Edit übers ganze Netzwerk verteilt hat braucht  
> man
> doch wieder einen zentralen Server.
>
> Meine Meinung :)

Ich denke, dass P2P im bisher gebrauchten Sinn hier so gut wie nix  
nutzt, aus oben genannten Gründen! Meiner Meinung nach, werden  
hoffentlich in Zukunft ein paar Techniken des Grid zur Anwendung  
gelangen. Sobald ich eine genauere Idee hab, wie das Aussehen könnte  
teile ich sie gerne mit. Im Endeffekt wird z.B. das Computing Grid am  
CERN eine ähnliche Aufgabe wie die Server der Wikipedia erfüllen  
müssen. Es müssen viele Daten an unterschiedlichen Standorten  
synchronisiert werden. Forscher (Benutzer) auf der ganzen Welt  
operieren gleichzeitig mit diesen Daten und haben in Tests deutlich  
höhere Belastungen des Grid hervorgerufen, als sie jemals in der  
Wikipedia geherrscht haben.

Just my 2 Cent

Florian