19.07.2009, 22:18 | #13 |
Эксперт
Регистрация: 23.11.2007
Адрес: Туда ведут благие намерения...
Сообщений: 1,280
Вес репутации: 323
|
А вить есть директива для бота которая прописывается в robots.txt
User-agent: * Disallow: /search Crawl-delay: 4.5 # задает таймаут в 4.5 секунды пускай сапу научат её понимать всем будет спокойней Тут немного из хелпа: Директива Crawl-delay Задает таймаут в секундах, с которым поисковый робот закачивает страницы с вашего сервера (Crawl-delay). Если сервер сильно нагружен и не успевает отрабатывать запросы на закачку, воспользуйтесь директивой "Crawl-delay". Она позволяет задать поисковому роботу минимальный период времени (в секундах) между концом закачки одной страницы и началом закачки следующей. В целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву "Crawl-delay" необходимо добавлять в группе, начинающейся с записи "User-Agent", непосредственно после директив "Disallow" ("Allow"). Поисковый робот Яндекса поддерживает дробные значения Crawl-Delay, например, 0.5. Это не гарантирует, что поисковый робот будет заходить на ваш сайт каждые полсекунды, но дает роботу больше свободы и позволяет ускорить обход сайта.
__________________
|
19.07.2009, 23:28 | #15 | |
пусто
Регистрация: 28.10.2007
Сообщений: 3,115
Вес репутации: 370
|
Цитата:
будут задержки пока не проверит все страницы, а страниц бывает много
__________________
|
|
20.07.2009, 03:54 | #16 | |
Эксперт
Регистрация: 23.11.2007
Адрес: Туда ведут благие намерения...
Сообщений: 1,280
Вес репутации: 323
|
Цитата:
Я щас глянул у гоши это выглядит так: 0,5 запросов в секунду 2 сек. между запросами Подымав нечего не понял, получается 0,5 страницы с интервалом в 2 сек
__________________
|
|
30.07.2009, 05:39 | #17 |
Специалист
Регистрация: 05.09.2008
Сообщений: 124
Вес репутации: 194
|
Блин, сегодня такая же проблема - нагрузка из-за робота с этим же адресом 250%% - что за фигня.
Уважаемые админы SAPE, сделайте возможность вашему роботу понимать директиву Crawl-Delay и сообщите, какой User-Agent ставить для вашего бота - ну сил просто нету - такую нагрузку одномоментно создает, сервер того и гляди ляжет Последний раз редактировалось FireWind; 30.07.2009 в 05:44. |
12.08.2009, 09:52 | #18 |
Новичок
Регистрация: 21.07.2009
Адрес: Новокузнецк
Сообщений: 24
Вес репутации: 0
|
Да не мешало бы малость остепенить робота. Хостер перекрывает многочисленные обращения к серверу и ссылки вываливаются в статус ЕРРОР. Пообщался со службой поддержки, они мне посоветовали купить виртуальный сервер. А нафига он мне нужен? Я не готов отдавать 14 баксов в месяц.
|
12.08.2009, 10:46 | #19 |
Новичок
Регистрация: 25.09.2007
Сообщений: 10
Вес репутации: 0
|
Сегодня вся площадка ушла в даун из-за робота Сапы.
3-4 запроса в секунду. Позвонил хостеру, тот корректно объяснил, что это не первый раз и не у меня одного. Почему боты Яндекса и Гугла так не флудят в логах как Сапа? Товарищи разработчики усмирите бота!!! |
|
|
Похожие темы | ||||
Тема | Автор | Раздел | Ответов | Последнее сообщение |
Есть ли у робота-индексатора Сапе кэш на каждую площадку? | y_avdeev | Ошибки при работе с системой | 6 | 16.01.2009 19:06 |
Некорректная работа индексатора | Zloy | Ошибки при работе с системой | 10 | 10.01.2009 09:53 |
Какой ип у робота сапы? | Ruzaevka | Вопросы по работе системы | 1 | 27.10.2008 16:39 |
Затык робота индексатора | polgete | Ошибки при работе с системой | 4 | 18.09.2008 06:32 |
Вопрос про робота | akapaka | Вопросы по работе системы | 2 | 25.07.2007 18:22 |
Часовой пояс GMT +3, время: 18:51.