23.08.2009, 15:39 | #1 |
Новичок
Регистрация: 24.09.2008
Сообщений: 46
Вес репутации: 190
|
запрет страниц для индекса через файл robots.txt
Возникла следующая проблема:
При запуске сайта пробовали разные фишки в движке, в результате появились страницы (мы уже давно отказались от этой фишки), с динамической вставкой, вида: http://www.site.ru/(X(1)S(hrsvckjheu...x?sec=2&cat=31 или http://www.site.ru/(X(1)S(jhglrvrvir...x?sec=2&cat=31 соответственно страницы по сути одинаковые, только адреса разные в результате индекс Яши забит кучей одинаковых страниц с разными адресами. Беда еще в том, что когда Яша заходит на такую страницу в очередной раз, а далее идет по внутренним ссылкам, то у следующих страниц в адресах появляется такая же белеберда и получаем следующую кучу таких страниц в индексе. при попытке в файле robots.txt дать команду: Disallow: /http://www.site.ru/(X(1)S(jhglrvrvirbtvuthu))/Wares.aspx?sec=2&cat=31 получаем ответ от яндекса: Возможно, был использован недопустимый символ Есть у кого-нибудь мысли как избавиться от такого наследства экспериментов? |
23.08.2009, 15:57 | #2 | |
Специалист
Регистрация: 14.10.2007
Сообщений: 157
Вес репутации: 205
|
Цитата:
|
|
23.08.2009, 16:10 | #3 |
Новичок
Регистрация: 24.09.2008
Сообщений: 46
Вес репутации: 190
|
в смысле сделать так:
Disallow: /http://www.site.ru/(X(1)S(jhglrvrvirbtvuthu))/Wares.aspx?sec=2&cat=31 ? Добавлено через 6 минут а вот еще чего в результатах проверки URL (пытаюсь проверить будет ли запрещена эта страница) напротив http://www.site.ru/(X(1)S(jhglrvrvir...x?sec=2&cat=31 пишет - синтаксическая ошибка однако сам страницы с подобными адресами спокойно держит в индексе Последний раз редактировалось Dr.Dream; 23.08.2009 в 16:10. Причина: Добавлено сообщение |
23.08.2009, 16:15 | #4 |
Специалист
Регистрация: 14.10.2007
Сообщений: 157
Вес репутации: 205
|
Не & , а &.
А результатах проверки URL ошибка появляется оттого, что не все скрипты правильно обрабатывают т.н. "сущности" (entities). Вы, кстати, понимете, что значит путь /http://www.site.ru/(X(1)S(jhglrvrvirbtvuthu))/Wares.aspx?sec=2&cat=31? Особенно начало? Пишите Disallow: /(X(1)S(jhglrvrvirbtvuthu))/Wares.aspx?sec=2&cat=31 |
23.08.2009, 18:08 | #5 | ||
Новичок
Регистрация: 24.09.2008
Сообщений: 46
Вес репутации: 190
|
В общем нет
Проверял и так и этак и... нет Более того, аналогичный ответ я получаю и на проверку адреса: http://www.site.ru/(X(1)S(z04du3qboz...)/Contact.aspx Добавлено через 1 минуту Цитата:
Добавлено через 2 минуты Цитата:
ошибку выдает скрипт яндекса, а сам поисковик поймет все правильно? Последний раз редактировалось Dr.Dream; 23.08.2009 в 18:08. Причина: Добавлено сообщение |
||
23.08.2009, 20:23 | #6 |
Специалист
Регистрация: 14.10.2007
Сообщений: 157
Вес репутации: 205
|
Писать теоретически надо либо
Disallow: /(X(1)S(jhglrvrvirbtvuthu))/Wares.aspx?sec=2&cat=31 либо Disallow: /(X(1)S(jhglrvrvirbtvuthu))/Wares.aspx?sec=2&cat=31 Как видите, никакого http:// там нет. В дизаллоу пишется путь, а http:// — протокол, www.site.ru — адрес сервера, и им там не место! Да, и ещё. Откуда у Вас скобки в пути? |
23.08.2009, 21:16 | #7 |
Новичок
Регистрация: 24.09.2008
Сообщений: 46
Вес репутации: 190
|
Вот это для меня загадка отгадка видимо известно программисту
по поводу пути, это я уже понял и попробовал... НЕТ не получается всеравно пишет Возможно, был использован недопустимый символ. Попробовал страницу с другим адресом, где нет символов & по определению Disallow: /(X(1)S(z04du3qboz4ctumzwwfrlz45))/Contact.aspx Но ответ тот-же Добавлено через 9 минут есть идейка одна, но насколько она реальна не знаю дать команду Allow: /Contact.aspx Allow: /Wares.aspx?sec=3&cat=64&sub=263 и так далее, выбрав минимально необходимые на данный момент, а остальные Disallow: вопрос: сколько страниц можно разрешить,есть ли ограничения? и подействует ли данное правило на страницы с адресами вида: http://www.site.ru/(X(1)S(ela03mzn2p...cat=64&sub=263 и http://www.site.ru/(X(1)S(z04du3qboz...)/Contact.aspx ? Последний раз редактировалось Dr.Dream; 23.08.2009 в 21:16. Причина: Добавлено сообщение |
23.08.2009, 23:29 | #10 | |
Новичок
Регистрация: 24.09.2008
Сообщений: 46
Вес репутации: 190
|
Задавал, ответил, что если страница доступна, то в индексе останется
либо следуйте правилам написания robots.txt Добавлено через 4 минуты Цитата:
однако если кто-либо зайдет по ссылке http://www.site.ru/(X(1)S(ela03mzn2p...cat=64&sub=263 и пойдет на страницу Contact.aspx, то попадет на страницу http://www.site.ru/(X(1)S(ela03mzn2p...)/Contact.aspx в общем замкнутый круг какой-то Последний раз редактировалось Dr.Dream; 23.08.2009 в 23:29. Причина: Добавлено сообщение |
|
|
|
Похожие темы | ||||
Тема | Автор | Раздел | Ответов | Последнее сообщение |
Вападение страниц из индекса | formazon | Яндекс | 8 | 24.06.2009 09:33 |
Как сохранить в файл коды своих страниц для покупки на других сайтах | webmaster2008 | Вопросы от новичков | 9 | 18.06.2009 23:03 |
запрет индексации динамических урлов через robots.txt | Leonardo | Яндекс | 7 | 12.06.2009 20:22 |
Можно ли закрыть от робота Сапы ссылки через robots.txt? | dadda | Вопросы по работе системы | 6 | 29.10.2008 15:46 |
Бот сапы смотрит на файл robots.txt? | mekal | Вопросы по работе системы | 13 | 18.10.2008 15:20 |
Часовой пояс GMT +3, время: 09:36.