19.11.2007, 22:49 | #1 |
Мастер
|
Скажите, я идиот?
Сделал ошибку, не думал что поисковики меня заметят, так они из одной ссылки начали меня индексировать. Мне НЕ НУЖНО чтобы меня индексировали. Согласен даже чтобы вообще не быть ни в одном индексе лишьбы закончился этот DDoS. Уже наверное с неделю не могу Яшу угомонить. Ни одной блин страницы в индексе яндекса а его боты жрут гигабайты в день... и это продолжается дней пять минимум. Платоны молчат.
как прибить нах этих уродов? robots.txt: Код:
User-agent: Yandex Disallow: / Host: 8kb.ru User-agent: * Disallow: / Вот думаю, может я чтото не так в роботах написал, и туплю не вижу? PS: первые дни мне тоже смешно было... |
19.11.2007, 22:55 | #2 |
Специалист
Регистрация: 15.06.2007
Сообщений: 178
Вес репутации: 210
|
не читая содержания темы, но читая заголовок.
ДА
__________________
Очень интересно Check Your Google Pagerank / Alexa Rank / Backlinks |
19.11.2007, 23:05 | #3 |
Сапер со стажем
Регистрация: 16.05.2007
Адрес: Днепропетровск
Сообщений: 4,382
Вес репутации: 521
|
Мне вот самому только сегодня пришлось со своим robots.txt разбиратся.
Не особо шаря, попытаюсь помочь. Может стоило поменять местами? Сначала запретить индексировать, а потом уже редирект...
__________________
Л. Н. Толстой |
19.11.2007, 23:08 | #4 | |
Мастер
|
Цитата:
что делать сейчас кроме как покупать новый домен? есть более правильный вариант роботс? |
|
19.11.2007, 23:10 | #5 | |
Сапер со стажем
Регистрация: 16.05.2007
Адрес: Днепропетровск
Сообщений: 4,382
Вес репутации: 521
|
Цитата:
Почему не просто: User-agent: * Disallow: /
__________________
Л. Н. Толстой |
|
19.11.2007, 23:19 | #6 |
Мастер
|
хм.. потому что сначала задачи закрывать весь сайт не ставилось, а ставилось только стремную часть закрыть... а потом переделывал то что было. Ну попробую сделать так, и открыть сайт еще на часик эксперимента ради
|
19.11.2007, 23:20 | #7 |
Мастер
Регистрация: 25.06.2007
Сообщений: 665
Вес репутации: 232
|
Если ненужна индексация ботами - запретите, например через JS.
Есть JS - смотрим сайт, нет JS - идем смотреть яндекс.ру. Тоже самое можно сделать по кукам. Второй вариант - банить, а не запрещать роботсом. Тут А - узнать все IP и забанить. Б - сделать скрытую ссылку на сайте, которая будет вести на страницу бана. (люди не попадут, а все роботы влетят и забанятся). |
19.11.2007, 23:30 | #8 | |
Мастер
|
Цитата:
Но я же их по user-agent что называется "в лицо" знаю. В основном это Яндекс урод... уже думал ему выдавать "402 Payment Required" но както это некошерно. Впрочем если еще денек такая ситуация продолжится то прийдется так и делать. Я думал об этом но к сожалению на этом хостинге у меня нет доступа к iptables а переносить на другой сервер не хочу... пусть лучше сторонний хостер разбирается с моими проблемами и держит ддос |
|
19.11.2007, 23:31 | #9 |
Модератор
Регистрация: 07.06.2007
Сообщений: 3,491
Вес репутации: 315
|
забань его по ip
__________________
Секреты успешной работы вебмастеров в Sape - Бестселлер года! Расширяем возможности SAPE: дополнение к Firefox - без него, как без рук. |
19.11.2007, 23:41 | #10 |
Мастер
|
|
|
|
Похожие темы | ||||
Тема | Автор | Раздел | Ответов | Последнее сообщение |
Уважаемая администрация, скажите IP ваших ботов. Это необходимо для защиты от хакеров | Администрация 6-ой палаты | Курилка | 55 | 22.09.2008 12:24 |
Скажите про ERROR | vitalius | Ошибки при работе с системой | 10 | 19.04.2008 09:50 |
Идиот! | Mendel | Вопросы по работе системы | 20 | 19.11.2007 06:26 |
Скажите, когда наступает 25-е? | s0410 | Ошибки при работе с системой | 4 | 25.08.2007 17:25 |
Часовой пояс GMT +3, время: 17:05.