08.11.2007, 04:10 | #1 |
пусто
Регистрация: 28.10.2007
Сообщений: 3,115
Вес репутации: 370
|
Яндекс жестоко глюканул :(
Только что Яндекс проиндексировал мои новенькие 111 страниц сайта.
+ он взял и проиндексировал запрещенные в РОБОТС.ТХТ страницы. Как я проверил? А просто взял и ввел в поисковой строке адрес сайта и на первом же месте он мне выдал запрещенные в роботсе страницы! Блин, че делать? На этих страницах у меня внешних ссылок около 2500? Жесть, наверно из-за его же ошибки скоро будет бан! К превиликому счастью эти страницы проскриптованы на ПХП и дают максимум 23 внешних ссылки при поиске. А может это не так и плохо? |
08.11.2007, 04:29 | #2 |
Модератор
Регистрация: 07.06.2007
Сообщений: 3,491
Вес репутации: 315
|
может роботс неправильный?
роботс дайте пасматреть
__________________
Секреты успешной работы вебмастеров в Sape - Бестселлер года! Расширяем возможности SAPE: дополнение к Firefox - без него, как без рук. |
08.11.2007, 04:37 | #3 |
пусто
Регистрация: 28.10.2007
Сообщений: 3,115
Вес репутации: 370
|
|
08.11.2007, 04:41 | #4 |
Модератор
Регистрация: 07.06.2007
Сообщений: 3,491
Вес репутации: 315
|
ну значит все страницы начинающиеся с
site.ru/regen.php не должны индекситься.. если проиндексировались то robots.txt создан позже, чем забежал быстроробот робот не смог открыть robots глюк
__________________
Секреты успешной работы вебмастеров в Sape - Бестселлер года! Расширяем возможности SAPE: дополнение к Firefox - без него, как без рук. |
08.11.2007, 04:44 | #5 | |
пусто
Регистрация: 28.10.2007
Сообщений: 3,115
Вес репутации: 370
|
Цитата:
Это сто пудовый глюк! |
|
08.11.2007, 10:49 | #6 |
Администратор
Регистрация: 05.02.2007
Сообщений: 18,405
Вес репутации: 715
|
ну спросите у самого яндекса, как он считает этот роботс. У него есть там место для проверки.
__________________
Читаем ФАК |
08.11.2007, 10:59 | #7 |
Вредина
Регистрация: 03.07.2007
Адрес: д.Коноплянка
Сообщений: 3,535
Вес репутации: 432
|
1. Для начала уясните. Указанная страница в любом случае будет проиндексирована. Роботс запрещает выдачу ее в серп. Иначе клокинговые сетки процветали. По этому так от бана не спрячитесь.
2. Проверьте права на файл, если бот не смог его открыть на чтение результат - страница в серпе. 3. Проверьте кодировку файла.
__________________
|
08.11.2007, 19:42 | #8 |
Новичок
Регистрация: 08.07.2007
Адрес: Москва
Сообщений: 64
Вес репутации: 206
|
вчера вообще ночью проверил - проиндексировал весь сайт. все 4700 страниц. всё что можно, даже линкопомойку всю.
Сегодня с утра опять как по прежнему 40 страниц. Глючит базу как всегда. Да кстати сегодня была конференция от компании нетпромоутер.ру и анмедиа. Обсуждались как раз фильтры и вопросы с выпадением сайта из индекса. Так вот там прямо так и сказали, что у яндекса постоянно глюки и это абсолютно для него нормально. В отличие от гугла, который работает как часы. |
08.11.2007, 21:25 | #9 |
Специалист
Регистрация: 29.05.2007
Сообщений: 486
Вес репутации: 219
|
Кстати, роботс.тхт это все хорошо, но есть еще и конструкция
типа <meta name="robots" content="noindex,nofollow" />. Ее и яндекс и гугл слушаются исправно. Я роботс.тхт давно уже комбинирую с метой.
__________________
|
|
|
Похожие темы | ||||
Тема | Автор | Раздел | Ответов | Последнее сообщение |
Яндекс | rmPIC30 | Яндекс | 16 | 11.06.2008 08:33 |
Яндекс | krac | Вопросы от новичков | 11 | 24.04.2008 19:58 |
Яндекс vs. YAP | nikonoff | Яндекс | 5 | 15.03.2008 01:45 |
Яндекс Директ | Lesnik59 | Яндекс | 17 | 09.01.2008 08:15 |
Яндекс тИЦ | Kholod | Яндекс | 12 | 12.11.2007 11:38 |
Часовой пояс GMT +3, время: 13:03.