Bisher musste man immer mit dem theme.liquid und Meta-Tags arbeiten, um Seiten bei Google auszuschließen. Das hat sich nun geändert. Shopify hat es endlich geschafft, eine Möglichkeit anzubieten, das robots.txt-Datei zu bearbeiten.
Hier die Anleitung dazu, wie das funktioniert.
Wie geht das?
- Gehe in Deinem Shopify-Adminbereich zu "Onlineshop > Themes"
- Klicke auf Aktionen und dann auf Code bearbeiten
- Klicke auf "Eine neues Template hinzufügen" und wähle dann Robots aus (siehe Bild 1)
- Klicke auf "Vorlage erstellen"
Jetzt kannst Du die gewünschten Änderungen machen.
Wofür ist das gut?
Du kannst z.B. damit Deine Datenschutzerklärung, Widerruf und AGB etc. von Google ausschließen (doppelter Inhalt, da von vielen Shops verwendet).
Auch gibt es Online-Shop-Betreiber, welche es nicht mögen, dass sie via Google mit ihrem Namen gefunden werden 😀
Anbei im Bild 3 hast Du ein Beispiel. Hier schließen wir die folgenden Seiten aus:
- /pages/impressum
- /pages/datenschutz
- /pages/widerrufsbelehrung
- /pages/allgemeine-geschaeftsbedingungen
Du kannst das nach Belieben weiter anpassen. Beachte, dass Du Dich an die Syntax vom robots.txt hältst! Und natürlich musst Du die Einträge auf Deine URLs anpassen. Das hier sind nur Beispiele.
Als Letztes speicherst Du die Änderungen an der Datei "robots.txt.liquid". Fertig!
Weitere Informationen dazu gibt es unter hier.
Für Profis: Hier ist erklärt, was der Standard-Code von Shopify alles macht.