Zadejte hledaný výraz...

Robots.txt pro více jazykových mutací

Dobrý den,
poptávám někoho, případně doporučení, jak vyřešit komplikaci s robots.txt.
Spravuji e-shop, který má několik jazykových mutací, a které mají odlišnou doménu prvního řádu (.cz, .de apod.). Nemám přístup do FTP, ale údajně jsou všechny e-shopy (jazykové mutace) ve stejném adresáři a mají jeden soubor robots.txt, což znamená, že pokud se přepíše robots.txt, tak to zasáhne všechny weby, nikoliv pouze jeden. A právě toho potřebuji dosáhnout, pokud to nějak lze. Potřebuji upravit robots.txt pouze pro jednu jazykovou mutaci (např. pro xyz.cz, ale nikoliv pro xyz.de).
Máte nějaký návrh, jak toho dosáhnout? Děkuji.
Přeji vám pěkný den.
Ondřej Smutný
76 zobrazení
Zadavatel
placeholder profil
ikona hodnoceni
14 hodnocení
členem od 23. 1. 2015
Neověřen
ikona hodnoceni
A
B
C
D
E
ikona hodnoceni
od Pexxi:solutions (15 hodnocení)
22. 10. 2022
Excelentní spolupráce! S uživatelem proběhlo vše v naprostém pořádku a jsem spokojen.
ikona

Ďakujeme za spoluprácu, radi pomôžeme aj nabudúce …

ikona hodnoceni
od Václav Valenta (19 hodnocení)
15. 8. 2022
ikona hodnoceni
od Martin Hubáček (14 hodnocení)
20. 8. 2021

Vřele doporučuji pro spolupráci a obchodování.

Další poptávky Více