Форум SAPE.RU

Форум SAPE.RU (http://forum.sape.ru/index.php)
-   Google, MSN, Yahoo (http://forum.sape.ru/forumdisplay.php?f=18)
-   -   googlebot разбушевался (http://forum.sape.ru/showthread.php?t=38975)

pgolovko 02.10.2009 23:41

googlebot разбушевался
 
скачивает почти все страницы каждый день по несолько раз, привышая 1GB траффика за сутки, и с каждым днем все больше и больше. ппц! есть ли способ его тормознуть с ограничением хотябы в 1000 страниц за сутки? ато он весь мой лимит схавает.
это либо злая шутка, либо гоша решил протестировать свою мощь на моем серваке :eek:

petruha666 02.10.2009 23:49

в "инструментах для вебмастеров" поставьте ограничение частоты сканирования. хотя ... что-то не верится, 1ГБ трафа - что-то тут не так :confused:

googlebot 03.10.2009 00:36

Я больше не буду;)

videomostru 03.10.2009 02:45

pgolovko, а сколько весит Ваш сайт?

dizelbox 03.10.2009 11:59

Такое бывает, и вполне реальная ситуация. А ограничение делается через вебматера, как было сказано ранее.

pgolovko 03.10.2009 12:15

а есть ли какой либо способ ограничить гошу через .htaccess или или robots.txt?
вчера гоша схавал 14909 страниц на 1.04 GB траффика :(
опасения мои вызванны тем, что весь сайт весит около 2 мил. страниц (взависимости от того что делают посетители). сайт полностью динамический на php/mysql. гоша хавает стока же траффика скока и посетители, просто ппц.
вот такие пироги.

Anvi 04.10.2009 05:11

ну наверно так

Решение для гугла:

инструменты для веб мастеров в аккаунте гугла -> выбираете сайт -> настройки -> Задать пользовательскую скорость сканирования

(http://www.google.com/support/webmas...y?answer=48620)

(robots.txt) (яндекс, yahoo, ... но не съедается гуглом!)

User-agent: *
Crawl-delay: 25

Crawl-delay - это пауза между скачиванием страниц ботом с вашего сервера.
ну или укажите нужного вам робота вместо *

pgolovko 04.10.2009 20:12

Anvi, хмм спасибки. вероятно выбора нет, придется лезть в гугл вмастер.

Communist 09.10.2009 21:27

2 млн. страниц? ну и САЙТИЩЕ у вас. неужели все страницы нужны в выдаче поисковиков? может часть можно прикрыть, чтобы боты ходили только на нужные?

DiAksID 09.10.2009 23:30

плевать гуглебот хотел на "Crawl-delay" - проверено неоднократно на практике (да он и сам этого не срывает :)). в .htaccess ему надо кислород перекрывать ;) по другому никак, ежли в панели вебмастера не получается/не хочется...


Часовой пояс GMT +3, время: 18:07.

Работает на vBulletin® версия 3.8.7.
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Перевод: zCarot
SAPE.RU — система купли-продажи ссылок с главных и внутренних страниц сайтов.