Zadejte hledaný výraz...

Zabránění automatickému stahování stránek robotem

honyzahy
verified
rating uzivatele
(5 hodnocení)
9. 8. 2013 03:56:11
Mám webovky na který mi chodí roboti a stahují moje data, čemuž chci zabránit.
napadá mě řešení schovat data do javascriptu a po natažení do browseru se rozkódují a vyrenderují.
Jen mám obavu, že je nenajde ani robot od googlu a pak mi ty data nezaindexuje :(
Neřešil jste to někdo, či neznáte řešení?
9. 8. 2013 03:56:11
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931898
Pouzij sluzbu typu www.incapsula.cz, ktera boty vyhledavacu pusti na tvuj web a jine bud zablokuje nebo je snadno bloknes pres rozhrani incapsuly ty.
9. 8. 2013 07:16:04
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931897
Z principu je to nemozne - kdyz budu chtit, stahnu ti Tvoje data, ikdyz je budes renderovat javascriptem a nebo ikdyz tam budes mit captchu.
Uplne zabranit tomu proste nejde, ale pokud to dostatecne ztizis, tak se to treba jednoduse nevyplati (robot taky stoji penize a zalezi na tom, jak moc je hodnotny Tvuj obsah)
Ja osobne bych zvolil jinou taktiku, zjisti si IP, nebo nejak poznej, ze jde o toho konkretniho robota a posilej mu zmetky (useknuty text, spatne kodovani, nefungujici obrazky, apod.), zakaznik toho robota to bude mit za bug, programator robota to nebude chapat a bude to ladit do nekonecna, vyvoj se prodrazi a casem to vzdaji oba :)
Je treba to ale drzet v rozumnych mezich - programator to musi mit za bug, nesmi to byt prilis okate, jinak to prokoukne.
9. 8. 2013 08:26:43
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931896
Fautzi
verified
rating uzivatele
(1 hodnocení)
9. 8. 2013 09:21:33
Omezit uzivatele treba na 3-5 requestu za vterinu pak ho treba na 5 vterin presmerovat na 403
9. 8. 2013 09:21:33
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931895
Macecha
verified
rating uzivatele
(17 hodnocení)
9. 8. 2013 09:47:10
roboti dělají chybu, že posílají jeden request za druhým, řešto jenom u php souborů (ne obrázky)... běžný uživatel není schopen za 5 sekund načíst 5 stránek
9. 8. 2013 09:47:10
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931894
Tom
verified
rating uzivatele
(6 hodnocení)
9. 8. 2013 11:21:59
Fautzi, Macecha: tak tam dám náhodný sleep v rozmezí třeba 1 - 5 sekund, takže ve finále jenom robot poběží pomaleji.. problém to neřeší
9. 8. 2013 11:21:59
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931893
Kovboj
verified
rating uzivatele
(13 hodnocení)
9. 8. 2013 13:24:49
Napsal honyzahy;983677
Mám webovky na který mi chodí roboti a stahují moje data, čemuž chci zabránit.
napadá mě řešení schovat data do javascriptu a po natažení do browseru se rozkódují a vyrenderují.
Jen mám obavu, že je nenajde ani robot od googlu a pak mi ty data nezaindexuje :(
Neřešil jste to někdo, či neznáte řešení?
A proč tam ti roboti chodí a co stahují?
A co konkrétně je za problém - že ti "kradou data" nebo že ti zatěžují server?
9. 8. 2013 13:24:49
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931892
Roman
verified
rating uzivatele
(15 hodnocení)
9. 8. 2013 13:28:13
A co obyčejné uzamčení dat do sekce pro registrované? Tam robot nepronikne.
BTW: mám auto a když jedu, každý mi na ně čumí, co s tím?
9. 8. 2013 13:28:13
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931891
Fautzi
verified
rating uzivatele
(1 hodnocení)
9. 8. 2013 13:34:25
Ještě jedna otázka, rozpoznáš bezpečně BOTa od uživatele ?
9. 8. 2013 13:34:25
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931890
Tom
verified
rating uzivatele
(6 hodnocení)
9. 8. 2013 16:24:58
Caesar: že robot nepronikne do sekce pro registrované? Prostě se tam autor robota zaregistruje a přes robota přihlásí..
9. 8. 2013 16:24:58
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931889
Macecha
verified
rating uzivatele
(17 hodnocení)
9. 8. 2013 16:40:38
jedinné trochu účinné řešení je captcha, jako to má třeba seznam, že když bude podezřelý v počtu prohlídnutých stránek, tak po něm vyžádat opsat kód, jinak ho nepustit dále...
9. 8. 2013 16:40:38
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931888
Preto stahujem so seznamu s delayom 2s v 20 threadoch s roznymi IP adresami.. :D
13. 8. 2013 13:39:29
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931887
qwertr
verified
rating uzivatele
(7 hodnocení)
13. 8. 2013 13:49:48
cmelo > Na tie IP pouzivas proxy siet ?
13. 8. 2013 13:49:48
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931886
Cez TOR, je to sice pomale ale ked pustim paralelne viacej instancii tak je to v pohode.
13. 8. 2013 13:51:01
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931885
qwertr
verified
rating uzivatele
(7 hodnocení)
13. 8. 2013 13:58:14
TOR poznam, aj som ho pouzival. Ja ze ci nepouzivas nieco insie.
13. 8. 2013 13:58:14
https://webtrh.cz/diskuse/zabraneni-automatickemu-stahovani-stranek-robotem#reply931884
Pro odpověď se přihlašte.
Přihlásit