mmofacts.com

Tipps & Tricks: Der Google Effekt (für Wiki Coder)

gepostet vor 20 Jahre von schokofreak
Guten Tag.

Kann das wer in Tipps und Tricks verschieben? Kann dort nicht schreiben:

Wem geht das nicht so. Man schreibt eine Wiki Anwendung... diese läuft wunderbar. auf einmal, passieren da Sachen, welche nicht passieren sollten.

Beispielsweise: In einem Wiki sind sämtliche Artikel gelöscht.
Was ist da los?

Lange, lange suchen über Logfiles usw ergeben. Da hat wer Artikel gelöscht? Oder alte Artikel wiederhergestellt?
Was soll das eigentlich? Wieso zerstört der das ganze Wiki?
Lange lange suchen voller Rachegelüste ergeben eine IP Adresse.

Man kuckt nach. Was Google IP? Wasn dat?
Hat da wer IP Spoofing betrieben? Neee, kanns ja ned sein.
Man geht nach hause, dann kommt der geistesblitz.

Wichtig an alle Coder von Wiki ähnlichen Systemen, Anonymen Abstimmungssystemen, Pinboards, ...

Google ist so innovativ, und verfolgt sämtliche Links; sogar Get Links. Das heist, Google kann nicht unterscheiden, ob der Link löschen (delete.asp?id=123) einen Link ist, den er nutzen soll oder nicht.

Normalerweise lehrt man dies erst nach sehr sehr langer Zeit. Wenn man merkt, dass die Polls ja gar nie wirklich stimmen.
Wenn man merkt, dass Daten von Geisterhand wieder überschreiben werden.
Wenn man Merkt dass Daten gelöscht werden.

Desshalb:
Überall wo der Anonyme Internet User etwas machen kann. Dafür sorgen, dass Spyder da aussen vor bleiben.
Einfachste Möglichkeit, anpassen der robots.txt

Hoffe das hilft irgendjemandem mal aus der patsche; gibt schon genüg, welche eines morgens vor einem leeren Wiki gestanden sind

Grüssle
gepostet vor 20 Jahre von Gambler
Als Alternative kann man auch anhand des Browsers des Users in dem Falle Googlebot oder so ähnlich die Links einfach nicht anzeigen lassen.
gepostet vor 19 Jahre, 12 Monate von Global
gibt auch nen meta tag dafür:

....meta name="robots" content="nofollow"..... Damit erlauben Sie einem Suchprogramm, Inhalte aus der aktuellen HTML-Datei an seine Suchdatenbank zu übermitteln (nofollow = nicht folgen). Sie verbieten dem Suchprogramm jedoch, untergeordnete Dateien Ihres Projekts, zu denen Verweise führen, zu besuchen.

Quelle: Selfhtml
gepostet vor 19 Jahre, 12 Monate von barkel
hmm interessant, das wusste ich noch garnit, allerdings hatte ich bisher auch noch nciht das vergnügen ähnliche "anwendungen" zu schreiben *gg*


kann ich das aber so verstehen das die googlebots ähnlich wie cronejobs tätig sind?

mfg
gepostet vor 19 Jahre, 12 Monate von BLUESCREEN
Original von barkel
kann ich das aber so verstehen das die googlebots ähnlich wie cronejobs tätig sind?

Cronjobs sind Befehle, die regelmäßig zu bestimmten Zeiten ausgeführt werden und das hat mit so einem Bot nichts zu tun.
Die Bots laufen eher die gesamte Zeit und tun nichts als Websiten runterzuladen und dabei unter Umständen auch allen Links auf diesen Seiten zu folgen, um die Seiten, auf die die Links verweisen, auch runterzuladen. Und wenn so ein Bot dann in einem Wiki auf den Link zum Löschen eines Artikels stößt und es keine Angabe gibt, dass Bots den Links nicht folgen sollen, dann wird auch dieser Löschen-Link aufgerufen und das Wiki löscht dann natürlich den Artikel... Der Bot "weiss" hiervon natürlich nichts, sondern wollte nur an die Daten, die sich hinter dem Link verstecken, kommen, um sie in die Datenbank der Suchmaschine aufzunehmen.

Als Alternative kann man auch anhand des Browsers des Users in dem Falle Googlebot oder so ähnlich die Links einfach nicht anzeigen lassen.

Dies wäre eine schlechte Lösung, weil dadurch zwar einige Bots (nämlich genau die von Google) aufgehalten werden, aber alle anderen (z.B. von anderen Suchmaschinen) nicht. Deshalb sollte man die standardisierten Möglichkeiten wie Meta-Angaben nutzen.
gepostet vor 19 Jahre, 12 Monate von BLUESCREEN
Da schokofreak hier gerade irgendwie nichts posten kann, poste ich seinen Text:

Original von schokofreak

Tipp: Meta Angaben sind auch ned optimal. Da es ja erwünscht ist, dass der Google das Wiki Indiziert, oder?
Deshalb funzt ein meta robots=nofollow auch ned.

Wirksam ist:
- Bei den brisanten Links auf Robot Prüfen (nur, wie viele Bots gibets? Sehr viele)
- Die brisanten Links in eigenes Verzeichnis. Das Verzeichniss via robots.txt prüfen

Gruss
gepostet vor 19 Jahre, 10 Monate von ganovingen
Wer es zulässt, dass seine Datenbank über einen GET-Request (vulgo: einen normalen Link) verändert wird, der spielt mit dem Feuer.

Die Spezifikation des HTTP-Protokoll sagt ganz klar, dass Aktionen, welche serverseitig Daten verändern, über einen POST-Request (vulgo: ein Formular) abgewickelt werden sollen. Suchmaschinen-Robots füllen folgerichtig keine Formulare aus, und Googlebot natürlich auch nicht.

Man verzeihe mir die deutliche Formulierung, aber das im Ursprungsposting beschriebene Wiki war aus den genannten Gründen grundlegend fehlerhaft implementiert. Wer es richtig macht, hat keine solche Sorgen.

Auf diese Diskussion antworten