[Wikide-l] serverersparnis durch p2p

Robert "BuRnEr" Schadek Realburner at gmx.de
Di Jun 20 14:33:12 UTC 2006


Hi erst mal

und zwar hab ich gestern in 3sat nen bericht über die wikipedia 
konferenz gesehen. Und dort wieder wiedermal darauf hingewiesen, das 
wikipedia enorme kosten durch ihre server hat.
 
Und zwar dachte ich mir, schon vor einiger zeit, dass man doch die 
artikelverteilung durch ein p2p netzwerk erledigen könnte. ich hab zwar 
nicht so die ahnung von p2p netz und so weiter, aber ich hab mir ein 
paar weiterführende gedanken gemacht.

und zwar seh ich ein paar dinge die gemacht werden müssten. und zwar 
müsste der zugriff auf wikipedia.org  und auf einen artikel an das p2p 
netz weitergeleitet werden. jeder der p2p netzteilnehmer würde einen 
teil der artikel vorhalten (die anzahl kann varibel gehalten werden, je 
nachdem wie viel speicher oder bandbreite er zur verfügung stellen 
möchte.) weiter denke ich das die wikipedia server einen hash-werte des 
jeweiligen artikel an den nutzer schicken sollte. den kann dann der 
nutzer mit dem hash-wert des im vom p2p netzwerk zugeschickten artikel 
vergleich. somit kann der nutzer die autenzität des im zugeschickten 
artikels feststellen.
ich denke so etwas macht nur sinn wenn man diese artikelverteilstruktur 
so hinbekommt das es ein browserplugin zur nutzung voraussetzt. 
natürlich würden änderung an den artikeln zu erst auf dem wikipedia 
server abgespeichert. die p2p software würde dann von zeit zu zeit auf 
dem wikipedia server nachfragen ob ein update der artikel vorliegt der 
die software vorhält. außerdem denke ich das es sinnvoll wäre jeden 
artikel mehrfach im p2p netz zu speichern sagen wir 25 mal somit könnte 
man gewährleisten das alle artikel jederzeit im p2p netz verfügbar wären.

ich denke das so eine p2p lösung zwei vorteile hätte die wikipedia 
server müssten nciht mehr die artikel übertragen an die nutzer sondern 
sie müssten nur noch die anfragen an das p2p netz weiterleiten, die 
änderungen an den artikeln speichern und ans p2p netz verteilen außerdem 
müssten sie den hash-wert der artikel noch verschicken. der zweite 
vorteil ist das das teilnehmen an der wikipedia community dadurch sehr 
einfach werden würde. man müsste sich nur die software installieren 
etwas bandbreite und speicherplatz zur verfügung stellen und gut.

ich denke die nachteile wären, dass wenn das p2p netz mal ausfallen 
würde nicht die ganze lasst zurück auf die wiki server fallen würde mit 
einem mal und nicht mehr sonderlich gut abschätzbar wäre wie viel lasst 
das ist.

Außerdem finde ich würde die speicher in einen p2p netz gut in das 
konzept von wikipedia passen, wissen von vielen erstellt gespeichert von 
vielen. passt irgendwie finden.

BuRnEr

p.s. freue mich auf eure kommentare.