Вернуться   Форум SAPE.RU > Система SAPE.ru > Ошибки при работе с системой

-->
Ответ
 
Опции темы
Старый 28.05.2009, 15:01   #11
Специалист
 
Регистрация: 03.10.2008
Сообщений: 222
Вес репутации: 199
snooker - это имя известно всемsnooker - это имя известно всемsnooker - это имя известно всемsnooker - это имя известно всемsnooker - это имя известно всемsnooker - это имя известно всем
По умолчанию

Цитата:
Сообщение от Wink Посмотреть сообщение
Перекройте роботу доступ по IP, пока не разберутся.
Перекрыл, но ждать пока все выпадет в эррор не хочется. Надо как-то разбираться с неуправляемыми ботами.
snooker вне форума   Ответить с цитированием
Старый 19.07.2009, 22:17   #12
Новичок
 
Регистрация: 26.06.2009
Сообщений: 16
Вес репутации: 0
SeregaSV на пути к лучшему
По умолчанию

У меня та же самая фигня, только каждый день бот бегает под разными ip, блокировать бесполезно, может это не сапобот?, хавает по 100 метров трафика, помогите, а то выкинут с хостинга...
SeregaSV вне форума   Ответить с цитированием
Старый 19.07.2009, 22:18   #13
Эксперт
 
Аватар для RedPage
 
Регистрация: 23.11.2007
Адрес: Туда ведут благие намерения...
Сообщений: 1,280
Вес репутации: 323
RedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущее
По умолчанию

А вить есть директива для бота которая прописывается в robots.txt

User-agent: *
Disallow: /search
Crawl-delay: 4.5 # задает таймаут в 4.5 секунды

пускай сапу научат её понимать всем будет спокойней

Тут немного из хелпа:

Директива Crawl-delay
Задает таймаут в секундах, с которым поисковый робот закачивает страницы с вашего сервера (Crawl-delay).

Если сервер сильно нагружен и не успевает отрабатывать запросы на закачку, воспользуйтесь директивой "Crawl-delay". Она позволяет задать поисковому роботу минимальный период времени (в секундах) между концом закачки одной страницы и началом закачки следующей. В целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву "Crawl-delay" необходимо добавлять в группе, начинающейся с записи "User-Agent", непосредственно после директив "Disallow" ("Allow").

Поисковый робот Яндекса поддерживает дробные значения Crawl-Delay, например, 0.5. Это не гарантирует, что поисковый робот будет заходить на ваш сайт каждые полсекунды, но дает роботу больше свободы и позволяет ускорить обход сайта.
__________________
«Chat horoshego nastroeniya» - Ne berut v DMOZ.
RedPage вне форума   Ответить с цитированием
Старый 19.07.2009, 22:31   #14
Новичок
 
Регистрация: 26.06.2009
Сообщений: 16
Вес репутации: 0
SeregaSV на пути к лучшему
По умолчанию

ниче не понял...что мне сделать с этим ботом? И бот сапы это или нет?
SeregaSV вне форума   Ответить с цитированием
Старый 19.07.2009, 23:28   #15
пусто
 
Аватар для Администрация 6-ой палаты
 
Регистрация: 28.10.2007
Сообщений: 3,115
Вес репутации: 370
Администрация 6-ой палаты - прекрасное будущееАдминистрация 6-ой палаты - прекрасное будущееАдминистрация 6-ой палаты - прекрасное будущееАдминистрация 6-ой палаты - прекрасное будущееАдминистрация 6-ой палаты - прекрасное будущееАдминистрация 6-ой палаты - прекрасное будущееАдминистрация 6-ой палаты - прекрасное будущееАдминистрация 6-ой палаты - прекрасное будущееАдминистрация 6-ой палаты - прекрасное будущееАдминистрация 6-ой палаты - прекрасное будущееАдминистрация 6-ой палаты - прекрасное будущее
По умолчанию

Цитата:
Сообщение от RedPage Посмотреть сообщение
User-agent: *
Disallow: /search
Crawl-delay: 4.5 # задает таймаут в 4.5 секунды
хы, тогда как вести расчеты? в реальном времени не получится
будут задержки пока не проверит все страницы, а страниц бывает много
__________________
Умное лицо - это еще не признак ума господа. Все глупости на земле делаются именно с этим выражением лица. Улыбайтесь господа, улыбайтесь.
Администрация 6-ой палаты вне форума   Ответить с цитированием
Старый 20.07.2009, 03:54   #16
Эксперт
 
Аватар для RedPage
 
Регистрация: 23.11.2007
Адрес: Туда ведут благие намерения...
Сообщений: 1,280
Вес репутации: 323
RedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущееRedPage - прекрасное будущее
По умолчанию

Цитата:
Сообщение от Администрация 6-ой палаты Посмотреть сообщение
хы, тогда как вести расчеты? в реальном времени не получится
будут задержки пока не проверит все страницы, а страниц бывает много
Я просто рылся и вспомнил, что есть директива, ну а как она работает мне эти тонкости неизвестны

Я щас глянул у гоши это выглядит так:

0,5 запросов в секунду
2 сек. между запросами

Подымав нечего не понял, получается 0,5 страницы с интервалом в 2 сек
__________________
«Chat horoshego nastroeniya» - Ne berut v DMOZ.
RedPage вне форума   Ответить с цитированием
Старый 30.07.2009, 05:39   #17
Специалист
 
Регистрация: 05.09.2008
Сообщений: 124
Вес репутации: 194
FireWind - весьма и весьма положительная личностьFireWind - весьма и весьма положительная личность
По умолчанию

Блин, сегодня такая же проблема - нагрузка из-за робота с этим же адресом 250%% - что за фигня.

Уважаемые админы SAPE, сделайте возможность вашему роботу понимать директиву Crawl-Delay и сообщите, какой User-Agent ставить для вашего бота - ну сил просто нету - такую нагрузку одномоментно создает, сервер того и гляди ляжет

Последний раз редактировалось FireWind; 30.07.2009 в 05:44.
FireWind вне форума   Ответить с цитированием
Старый 12.08.2009, 09:52   #18
Новичок
 
Аватар для 1373
 
Регистрация: 21.07.2009
Адрес: Новокузнецк
Сообщений: 24
Вес репутации: 0
1373 скоро станет известен
По умолчанию

Да не мешало бы малость остепенить робота. Хостер перекрывает многочисленные обращения к серверу и ссылки вываливаются в статус ЕРРОР. Пообщался со службой поддержки, они мне посоветовали купить виртуальный сервер. А нафига он мне нужен? Я не готов отдавать 14 баксов в месяц.
1373 вне форума   Ответить с цитированием
Старый 12.08.2009, 10:46   #19
Новичок
 
Регистрация: 25.09.2007
Сообщений: 10
Вес репутации: 0
vedenyapin на пути к лучшему
По умолчанию

Сегодня вся площадка ушла в даун из-за робота Сапы.
3-4 запроса в секунду. Позвонил хостеру, тот корректно объяснил, что это не первый раз и не у меня одного. Почему боты Яндекса и Гугла так не флудят в логах как Сапа?

Товарищи разработчики усмирите бота!!!
vedenyapin вне форума   Ответить с цитированием
Старый 12.08.2009, 16:57   #20
Новичок
 
Регистрация: 16.11.2007
Сообщений: 46
Вес репутации: 200
fortuna на пути к лучшему
По умолчанию

Это ппц, я сегодня с кучой своих сайтов наверно вырублю своего хостера, а он выкинет меня. СРОЧНО ПРИМИТЕ МЕРЫ
fortuna вне форума   Ответить с цитированием
Ответ


Ваши права в разделе
Вы не можете создавать новые темы
Вы не можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

BB коды Вкл.
Смайлы Вкл.
[IMG] код Вкл.
HTML код Выкл.

Быстрый переход

Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Есть ли у робота-индексатора Сапе кэш на каждую площадку? y_avdeev Ошибки при работе с системой 6 16.01.2009 19:06
Некорректная работа индексатора Zloy Ошибки при работе с системой 10 10.01.2009 09:53
Какой ип у робота сапы? Ruzaevka Вопросы по работе системы 1 27.10.2008 16:39
Затык робота индексатора polgete Ошибки при работе с системой 4 18.09.2008 06:32
Вопрос про робота akapaka Вопросы по работе системы 2 25.07.2007 18:22


Часовой пояс GMT +3, время: 18:51.