07.10.2012, 20:33 | #1 |
Специалист
Регистрация: 29.09.2007
Сообщений: 403
Вес репутации: 216
|
Сканирует, но не индексирует
Коллеги, подскажите.
Есть сайт http://www.fish-hook.ru/ Яндекс индексирует все как нужно, Гугл с 9 мая 2012 катастрофически начал проседать в трафике, в результате упал почти до нуля. Каких-то значимых причин не вижу. Основной раздел сайта http://www.fish-hook.ru/articles/ не в индексе, хотя по логам бот гугла оттуда не вылезает. Например, сегодня гугл вычитал 1039 страниц, в основном из этого раздела, а яндекс всего 693... В середине года писал в ТП гугла, ответили что санкций на сайте нет... Всю голову сломал. |
07.10.2012, 21:13 | #3 |
Специалист
Регистрация: 29.09.2007
Сообщений: 403
Вес репутации: 216
|
karamba, да, каждый раз проверяя корректность через гугл.вебмастер...
В итоге секция для гугла существенно уменьшилась, большая часть правил осталась только для форума. Остальное ушло в meta name="robots" content="noindex" и link rel="canonical" href="..." Причем каноникал абсолютно корректный, проверялось вручную... |
07.10.2012, 21:33 | #5 |
Специалист
Регистрация: 29.09.2007
Сообщений: 403
Вес репутации: 216
|
Все это делается в первую очередь: анализ панели вебмастера и логов. Ответы абсолютно корректны, везде 200. Ошибки в панели только естественные (удаление пользовательских страниц и т.д.), результаты модерации (но их единицы, в рамках тысяч страниц сайта).
|
08.10.2012, 01:01 | #6 |
Специалист
Регистрация: 14.12.2009
Сообщений: 352
Вес репутации: 194
|
Глюк странный.
news есть, а articles - нет... имхо долбить Гугл - похоже там что-то не так (пусть хоть объяснят почему нет страниц в индексе) Маленькая зацепка к тому, что это именно глюк: 1. Скормил ваш роботс гугл-вебмастеру, подсунул урл из /articles/ - получил "Разрешено, Распознается в качестве каталога; у некоторых файлов могут быть другие ограничения" 2. Добавил второй урл из /news/ (есть в индексе) - получил на первый урл "Разрешено", а на второй - "Разрешено, Распознается в качестве каталога; у некоторых файлов могут быть другие ограничения". Разные ответы на один и тот же урл при парсинге роботс.тхт - странно. Варианты решения проблемы "в лоб": - переход от использования "/" к ".html" (увы, если страницы уже есть в яндексе - болезненное решение) - упрощение структуры robots.txt - rel="canonical" (может прошибет? ) - долбание гугловской ТП. Кстати, в панели вебмастера "Конфигурация - Параметры URL" не эксперименттровали? |
|
|
Похожие темы | ||||
Тема | Автор | Раздел | Ответов | Последнее сообщение |
Сканирует но не не попадает в индекс | kibergex | Google, MSN, Yahoo | 2 | 15.07.2012 03:57 |
Не индексирует | Pycckoe | Вопросы по работе системы | 24 | 01.09.2009 15:17 |
Не индексирует ПР | Yra | Вопросы от новичков | 5 | 03.04.2009 18:01 |
IP сапы сканирует порты! | don Aleksandro | Вопросы по работе системы | 17 | 21.05.2008 03:43 |
Вопрос для тех, кто сканирует книги | Gonzales999 | Курилка | 53 | 08.05.2008 23:13 |
Часовой пояс GMT +3, время: 00:29.