12.03.2011, 11:46 | #11 |
Новичок
|
Ank а если эта мера вынужденная? У меня сайт на DLE, все страницы не более 3УВ, но на каждую страницу есть дубли - именно эти дубли и съедает робот... Не знаю как он их находит, ни один другой робот не может их найти а он берёт откуда то...
|
12.03.2011, 12:06 | #12 |
Администратор
Регистрация: 05.02.2007
Сообщений: 18,405
Вес репутации: 720
|
не откуда то а из вашего сайта. Открываете исходник и видите их. Ну и лечите как получится
__________________
Читаем ФАК |
|
|
Похожие темы | ||||
Тема | Автор | Раздел | Ответов | Последнее сообщение |
Sitemap | artoff | Вопросы от новичков | 6 | 26.08.2010 14:31 |
Sitemap | maxkur | Вопросы от новичков | 7 | 12.04.2010 18:40 |
sitemap | Delilah | Софт для оптимизаторов и вебмастеров | 2 | 14.07.2009 11:08 |
sitemap в вмя | 4ip | Яндекс | 10 | 19.02.2009 12:29 |
Sitemap | kaxart | Яндекс | 26 | 02.02.2009 12:29 |
Часовой пояс GMT +3, время: 08:58.