Vom Irrglauben der „Cachewolke“, oder…

…warum man das Rad nicht neu erfinden muß, weil es dezentrales Geocaching bereits gibt!

Einst erwähnten die Doppel-O-Agenten in einem ihrer Podcasts, das sie sich „Geocaching 3.0“ als einen Haufen über Blogs verteilte Listings vorstellen könnten, immer mal wieder wird das aufgegriffen und aktuell geht ein neues Schlagwort durch den Dunstkreis des grünen Forums: Cloud Geocaching. Nun bin ich sehr ungern jemand, der eine Sache als Totgeburt bezeichnet, bevor es nicht tatsächlich eine wird, aber hier scheint es ganz so, als würden alle in ihrer Euphorie übersehen, das da ein ganz grober Unfug angedacht wird. Die aktuell diskutierten Möglichkeiten stellen nämlich alle die aktuelle Situation dar, nur eben um Längen verkompliziert.

Betrachten wir zunächst den aktuell immer wieder genutzten Begriff des „Cloud Geocaching“. Er ist abgeleitet vom Cloud Computing, was letztlich soviel bedeutet wie „Rechnen in der Wolke“. Rechenpower, Festplattenkapazitäten, Datenvorhaltung, Datenauswertung, eben das Ganze drumherum ist über diverse Rechner verteilt, den Anwender interessiert dabei nicht die Bohne wo sich genau was abspielt, für ihn zählt das Ergebnis und das kommt von einer Schnittstelle dioe die dezentral vorgehaltenen Ressourcen zentral verwaltet. Tante Guhgel ist da ein gutes Beispiel, überall auf der Welt sind Informationen, Datenbanken, Tools und Inhalte gespeichert, der Benutzer nimmt die Suchmaske und die bedient ihn. Und die Suchmaske ist nichts anderesals die Schnittstelle zwischen zentralem Managment der „Wolke“ und dem Benutzer.

Nun schauen wir uns die aktuellen Geocaches an: Sie liegen nicht zentral im Serverraum in Seattle, sie liegen über die ganze Welt verstreut in Städten, auf Feldern und in Wäldern. Global betrachtet bilden sie ebenso eine „Wolke“ wie die Rechner von Tante Guhgel. Und es gibt sogar das zentrale Management (inkl. Schnittstelle in Form einer Suchmaske), nur heißt das nicht Tante Guhgel sondern geocaching.com, opencaching.de oder ähnlich. Womit erstmal klar wäre, das Geocaching inzwischen ja schon dezentral läuft. Bleibt nur noch eine kurze Betrachtung der aktuellen „Randideen“.

Viele reden davon, die Cachelistings in einzelnen Blogs zu listen und dort dann auch zu loggen. Die Blogs wären dann quasi die einzelnen „Rechner in der Wolke“. Allerdings kommt hier nun wieder das Grundkonzept des „Cloud Computing“ zum tragen: Es ist zwingend ein zentrales Management erforderlich. Und hierfür wird nun von anderen Stellen eine Art geoRSS angedacht, ein RSS-Feed mit Geoinformationen, der die Bloglistings aggregiert und zentral ausgibt. Schließlich sollen ja die Listings auf gefunden werden. Der RSS-Aggregator bildet also die zentrale Schnittstelle, den zentralen Ort an dem alle Listings gefunden werden können.

Und damit sind wir dann bei der Huhn-Ei-Problematik – Man will Geocachingplattformen/-datenbanken abschaffen, weil sie angeblich nicht mehr zeitgemäß sind und ersetzt sie hinterher durch etwas Gleichwertiges, das nur wesentlich komplizierter in der Bedienung und weitaus fehleranfälliger ist, schon allein was die Pflege der Listings und Caches betrifft. Einzig für die Strafverfolgungsbehörden wäre es ein grandioser Vorteil: Liegt ein Cache verbotenerweise in einem NSG, auf Privatgrund oder in direkter Nähe zu einer Behörde, so ist der Owner im Handumdrehen über das Impressum herausgefunden, das nach Telemediengesetz auch für Blogs verpflichtend vorgeschrieben ist (sofern es nicht ausschließlich privaten bzw. familiären Zwecken dient, was aber in diesem Falle sicher nicht gegeben ist). Nutznießer einer Verlagerung der Listings sind also eher die Gegner des Geocaching, die sicherlich schon anfangen die ersten Listen zu bookmarken, um auch schön den Überblick zu behalten. So ist man, RSS-Feed sei Dank, noch schneller informiert, wenn man wieder einer der „pöhsen Geocacher“ anzeigewürdige Dinge tut…

Und weil es gerade so schön passend ist, hier noch ein Zitat zum Thema von unserem „Servercheffe“ bei OC:

Mein Konzept für Geocaching 4.0 (random caching): Wir verstecken Dosen ganz ohne Listing und wer sie zufällig findet, darf sie ausschließlich vor Ort im Hardware-Logbuch loggen. Damit wird auch die Suche wieder interessanter, wie früher bei den Ostereiern Wink

Schrottie

Ich blogge hier seit Anfang 2005 über wechselnde Themen. Zumeist handelt es sich dabei um Linux, Android, Geocaching oder Fotografie, aber zunehmend auch rund ums Fahrradfahren (mit MTB und Rennrad), das ich nach einigen Jahren Pause wieder für mich entdeckt habe. Dabei ist die Themenwahl insgesamt recht selektiv, also ich schreibe immer nur dann, wenn mich etwas wirklich interessiert und/oder bewegt und so kommt es dann auch, das man hier zuweilen auch private Dinge findet. Wer mir für die Arbeit ein kleines Dankeschön zukommen lassen möchte, der kann dies gern über meinen Amazon Wunschzettel tun. :-)

12 thoughts to “Vom Irrglauben der „Cachewolke“, oder…”

  1. Da stimm ich dir voll zu Schrottie, das klingt nach einer Totgeburt.
    Ich kann auch grad nicht die Pro-Argumente nachvollziehen, da heißt es doch: „Die Qualität der Caches steigt da sie ja nur in anderen Blogs verlinkt werden wenn sie gut sind.“
    Ein RSS-Aggregator krallt sich alles was er kriegen kann, dem ist es wurscht was es ist…
    Aber vielleicht hab ich die Grundidee doch noch nicht verstanden… 😈

  2. Es geistern viele Ideen durch die Blogs und Foren, doch wenig davon ist ist wirklich zu Ende gedacht.

    Tatsächlich haben wir Cachedatenbanken und damit eigentlich alles was man braucht. Man könnte sogar sagen, wir haben zu viele Cachedatenbanken, eine reicht doch vollkommen aus! Das ist natürlich nicht meine Meinung! Mehrere Cachedatenbanken haben ihr Berechtigung, weil Cacheowner und Datenbank nicht immer zueinander passen. Die Datenbank „haftet“ zB. für den Cache mit und muss daher bestimmte Regeln aufstellen. Durch die Regeln, die Überwachung der Regeln und durch die vorgegebene Gestaltung der Listings wird wiederum der Cacheowner „eingeschränkt“. Die Idee der Datenbanken stammt zudem aus der Zeit, als kaum jemand eigenen webspace hatte. Inwzwischen ist das anders, wir diskutieren hier ja auch in einem Blog und nicht in einem der beiden „zentralen“ Foren oder im usenet.

    Wenn es nun mehrere Datenbanken gibt und Leute, die aus welchen Gründen auch immer, Ihre Caches nicht bei einer Datenbank eintragen können oder wollen, dann braucht es Suchmaschinen die diese verstreuten Listings wieder zusammentragen. Die Karten auf geocaching.de tun nichts anderes, sie tragen die Daten von verschiedenen (derzeit leider nur 2) Datenbanken zusammen und stellen sie in einer Karte dar.

    Wohin das führen könnte zeigt Netzwolf.info. Dort findet man eine Suchmaske und das Suchergebnis wird wieder als Karte dargestellt.

    http://www.netzwolf.info/geocaching/karten/form

    Derzeit wird dort nur opencaching.de „durchsucht“ ich könnte mir aber gut vorstellen, dass sowas auch mit mehreren Datenbanken oder mit Caches die nur in Blogs gelistet sind, möglich ist. Auch andere Ausgabeformate der Suchergebnisse (zB. gpx) sind vorstellbar.

    Es könnten mehrere solcher Suchmaschinen entstehen, denn der Betreiber müsste sich deutlich weniger Sorgen um die Haftung machen, als der Betreiber einer zentralen Datenbank.

    Ob man das nun cloudcaching oder metacaching oder caching-3.0 nennt spielt keine Rolle. Ich halte es für eine zeitgemäße Weiterentwicklung.

  3. @Bursche: Das auf geocaching.de auch die GC-Daten gezeigt werden, ist vertraglich mit Groundspeak vereinbart, Groundspeak verspricht sich dadurch (zu Recht) mehr Zulauf und somit selbstverständlich auch mehr Einnahmen durch Premiummitgliedschaften und Verkäufe im eigenen Shop. Normal, alles andere wäre ja auch seltsam. Da allerdings fallen solche nette „Suchmaschinen“ wie die bei netzwolf.de nicht ins Partnerschema, sind sie doch als Nischenprodukte kaum kundenbringend. Und somit gibt es dann keine Verträge und die Dosen können dort nicht auftauchen. Andere Datenbanken (TC, NC) sind von vornherein sehr restriktiv aufgebaut, da kommt die Freigabe der Daten erst recht nicht in Frage.

    Allerdings, und das zeigt letztlich netzweolf.de gant gut, ist eine solche „Suchmaschine“ immer recht gebunden, in diesem Falle an OC. Irgendjemand muss eben der Datenlieferant sein und irgendjemand muss vor allem, sicherstellen, das die Daten auch etwas taugen. Also müssen die Daten aus einer zentralen DB wie bspw. OC kommen, kommen die Daten aus lose verteilten Quellen, ist die Datenqualität definitiv nicht mehr gewährleistet.

    Interessant ist in dem Zusammenhang ja auch, das viele Stimmen die nach der „wilden Verteilung“ der Listings rufen, auch gern die zuweilen schlechte Listingqualität bei OC anmahnen, dabei dann aber zum Zwecke der Argumenterhaltung nichts dagegen tun (=Cache melden). Aber dem „eigenen Kind“ wird dann schon voab Qualität bescheinigt, die so mit an Sicherheit grenzender Wahrscheinlichkeit nicht gehalten werden kann. Man kann es also drehen und wenden wie man will – richtig sinnvoll und vor allem funktionierend sind lediglich die bestehenden Lösungen.

  4. Ich erinnere mich noch an Zeiten, da wurde von einigen vertreten, man bräuchte kein Internet, das usenet wäre die bessere „Alternative“.

    Auch hat eine zentrale Plattform tatsächlich unbestreitbare Vorteile. Ein Festhalten an diesen zentralen Plattformen wird aber letztendlich dazu führen, dass man von anderen überholt und in die Bedeutungslosigkeit abgedrängt wird.

    Um es mal überspitzt darzustellen: Wieviele Seiten braucht das Internet?

    Nachrichten.de, Meinung.de, Wissen.de, Einkaufen.de, Unterhaltung.de

    Damit wäre schon das meiste abgedeckt. Wer Nachrichten über das Internet verbreiten will, der muss sich bei Nachrichten.de anmelden, in ein Formular trägt er dann die Eckdaten und seinen Nachrichtentext ein. Er kann sogar zusätzliche Bilder hochladen. Wird die Nachricht als „falsch“ entdeckt, kann sie von jedem Leser gemeldet werden und wird dann von Nachrichten.de gelöscht. Wie klingt das? Ist das erstrebenswert? Wäre es erstrebenswert, wenn es neben Nachrichten.de noch www,alternative-Nachrichten,de gäbe? Wäre bei 2 Nachrichtenportalen bereits die Meinungsvielfalt realisiert? Auf jeden Fall wäre es übersichtlich, geordnet, kontrollierbar…

    Ich habe nicht vor, meine caches von oc.de auf meinen Blog zu verschieben. Ich kann mir aber durchaus vorstellen, dass es eben Leute gibt, die das gerne tun würden auch wenn dadurch alles unübersichtlicher und komplizierter wird. Dafür erhält man aber kreative Freiheit und Unabhängigkeit. Ich weiß, dass nun der Einwand kommt, das wären nur Leute die sich nicht an Regeln und Gesetze halten wollen. Nein! Wenn es Freiheit gibt, gibt es auch Wildwuchs aber mehr Freiheit führt nicht automatisch zu mehr Wildwuchs, wie der Vergleich oc.de/gc.com deutlich zeigt. Obwohl Oc.de dem Owner mehr Freiheiten lässt, kommt es zu deutlich weniger Wildwuchs als bei gc.com.

    Inwieweit eine Suchmaschine an eine bestimmte Datenbank gebunden ist und ob es für Hobby-Programmierer möglich wäre, viele Quellen (Datenbanken, Blogs, etc) abzufragen, weiß ich nicht, dafür reicht mein technisches Verständnis nicht aus. Ich denke aber, es wäre jetzt der richtige Zeitpunkt, Standards zu setzen. Es würde gut zu geocaching.de passen, wenn sie neben den Daten von Oc.de und gc.com auch die Daten der Blogcacher auf ihren Karten darstellen würden. Geocaching.de könnte den hierfür erforderlichen Standard definieren, der für den Datenaustausch zwischen den Blogs und den „Suchmaschinen“ erforderlich ist. Ob geocaching.de dann die Blogs spidert, wie es google tut oder ob die Blogs (evtl. automatisiert via georss) Veränderungen an geocaching.de melden, ob gpx-Daten verwendet werden… das weiß ich nicht. Ich weiß aber, dass twitter demnächst eine Verknüpfung von tweets und geodaten abieten wird und sobald nach tweets über die Entfernung zu einem bestimmten Punkt gesucht werden kann, kann man das zum Cachen verwenden. Auch groundspeak bietet mit http://whibbit.com/ ewas Neues an. (Ich hab mir das noch nicht wirklich angeschaut)Google arbeitet auch daran, Informationen standortabhängig darzustellen, womöglich wird in einigen Wochen ohnehin jeder geocache von google auf googlemaps dargestellt und verlinkt. Es würde mich nicht verwundern, wenn ein Großteil der Cacher irgendwann von den bestehenden Plattformen abwandert und über twitter oder eine google-Anwendung nach caches sucht. Will man nicht in die Bedeutungslosigkeit abrutschen sollte man die Zeichen der Zeit nicht übersehen. Wenn man dann noch in der Position ist, mit opencaching.de eine Datenbank und mit geocaching.de eine „Suchmaschine“ am Start zu haben, da wäre es doch bedauerlich, wenn man twitter/google/etc. das bestellte Feld überlässt.

    1. @mo-cacher: Du hast ja auch noch nie genau gesagt was Du meinst… 😉

      @Bursche: Also wenn ich das richtig verstanden habe, dann ist bspw. die Darstellung der Caches auf der Karte von geocaching.de genau das, was die Anhänger der Blogidee nicht wollen, sie erhoffen sich eine „neue Anonymität“ des Hobbies. Nur das eben diese Anonymität nicht gewährleistet ist wenn das System funktionieren soll, und das das System letztlich genauso funktioniert wie bestehende, das zeigt ja dieser Artikel hier auf. Das es irgendwann auch andere Konzepte geben wird ist mir schon klar, jedoch hat bisher niemand etwas wirklich brauchbares vorgeschlagen.

  5. Ich habe vieles zu diesem Thema gelesen, sicher nicht alles verstanden und Vieles was geschrieben wurde, war vermutlich nicht zu Ende gedacht. Manchmal versteht man etwas auch nicht „richtig“ wenn man es aus einem andern Blickwinkel betrachtet. Betrachtet man die Blogcache-Idee vor dem Hintergrund der aktuellen Probleme Naturschutz, LP-Einbruch-Caches… dann ist man verständlicherweise eher skeptisch. Die Idee des Blog-Cachens würde auch nochmal großen Auftrieb erhalten, wenn eine Archivierungswelle über die Plattformen schwappen würde und alle LPs archiviert würden. Anonymität herrscht aber doch auch jetzt bereits schon. Ich kann mich auf jeder Plattform mit Peter Lustig aus 89250 Witzighausen anmelden und Caches veröffentlichen.

    Ändert man aber den Blickwinkel und schaut sich die Entwicklung des Internets in den letzten Jahren an und verfolgt die Meldungen darüber, was derzeit entwickelt wird dann stellt man fest, dass die Plattformen hinterherhinken und dass geodaten für andere immer intessanter werden. Die Entwicklung ist damit eigentlich schon vorgegeben. Die Frage ist daher nur, wann geht man diesen Weg selbst, geht man voraus oder geht man hinterher?

    Die nächste Frage, die sich dann stellt ist, welche Auswirkungen hat dies auf das Hobby?

    Das Internet hat einige Wildwüchse erlebt und überstanden. Trotz kino.to und napster ist die Rechtsordnung noch nicht zusammengebrochen und das Internet ist trotz Pornosumpf in fast alle Haushalte eingezogen. Ich denke, für das Dosensuchen wird es ähnlich laufen. Wir werden immer wieder mal Wildwüchse erleben und es wird immer Leute geben, die gerade das „Verbotene“ reizt. Wer das Verbotene sucht, wird es in den Tiefen des Internets auch immer finden. Die Verbreitung der „modernen Schnitzeljagd“ ist aber nicht mehr aufzuhalten. Ich bin mir sicher, dass es keine Kurverwaltung und keinen Tourismusverband mehr gibt, bei denen das Thema nicht in der Schublade steckt. Die werden ihre Touri-Caches verstecken, Listings veröffentlichen und google wird diese Listings finden. Dabei besteht die Gefahr, dass das „Dosenverstecken“ durch Gestze und Verordnungen soweit reglementiert wird, dass es für Privatpersonen immer schwieriger wird, eine Dose legal zu verstecken. Um dies zu verhindern muss Krawallcachern entschieden entgegengetreten werden. Eine Verbreitung der probematischen Listings lässt sich dauerhaft kaum verhindern, es bleibt daher nur konsequentes Ignorieren und eine Abkehr vom Homezone-leercachen und vom Pünktchen-Zählen.

    Dezentrales Cachen führt hoffentlich dazu, dass der Punkt und der smiley auf gc.com wieder an Bedeutung verlieren und Location/Kreativität/Spaß wieder in den Vordergrund rücken.

  6. Danke Schrottie, für das deutliche Aufzeigen der Schwachstellen dieser Idee.

    Mir kam dies „Blogcachen“ immer sehr hahnebüchen vor.
    Was nützt mir ein Cache, der auf einem Blog veröffentlicht ist, wenn der Schreiber in Hamburg oder Berlin sitzt? Dort bin ich aber nun mal nicht.
    Und diejenigen, die hoffen, damit Geocaching aus dem Fokus der Öffentlichkeit zu holen, irren gewaltig, denn irgendwie muß ja eine Suchmaschine die Cachebeschreibungen finden.

    Und wenn ich mal denke, wieviele Leute schon mit dem Loggen bei GC oder OC Probleme haben, dann werden die Rückmeldungen an die Blogger wohl noch weniger werden…

    Aber laß sie machen, solange in meiner Region keiner bloggt, geschweige denn dort seine Caches veröffentlicht und solange noch genug Caches bei GC.com auf mich warten, solange laß ich mir über diese Idee keine grauen Haare wachsen….

    Gruß, Elli

  7. Ist das auch schon Version 4.0, wenn man Dosen zufällig findet und erst hinterher das Listing sucht? Dosenfunde vor dem Publish zählen bestimt dazu. 🙄

    Zum Blogcachen: Es gibt auch genügend Fälle, wo Homepages oder Blogs irgendwann gelöscht werden. Die Logs wären dann unwiederbringlich weg, da ist Archivierung doch noch was schönes.

  8. Jo, punktgenau meine Meinung zu diesem Thema getroffen :mrgreen: . Ich habe zwar von Datenbanken nicht so sonderlich viel Ahnung, aber der echte Nutzen dieser verteilten Listings hat sich mir echt nicht erschlossen, da es nach wie vor eine irgendwie geartete zentrale Sammelstelle geben muss.

    Übrigens, Geocaching 3.5 (semirandom Caching): Man versteckt Dosen, macht auch in seinem Blog ein Listing, es gibt jedoch keinen Agregator, sondern man wartet, bis es von Google indiziert ist. Dann kann man als Sucher vielleicht sogar seine Cacheauswahl über Stichwörter vornehmen.

    Viele Grüße
    Gerald

Kommentare sind geschlossen.