Вернуться   Форум SAPE.RU > Практика оптимизации > Яндекс

-->
Ответ
 
Опции темы
Старый 19.07.2010, 19:08   #1
Печник
 
Аватар для ubuntu
 
Регистрация: 11.10.2009
Адрес: Наш мир
Сообщений: 2,060
Вес репутации: 232
ubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордится
По умолчанию ЧПУ - склейка страниц

Вот и у меня вопрос возник, к пользователям Сапы.
ЧПУ - все знают, что это такое.
Есть продвигаемый сайт на Друпале.
Яндекс умудрился проглотить, в самом начале, страницы в виде - /node/xxx (не знаю, откуда он узнал о сайте и об этих страницах).
Из продвигаемых страниц - три, с этим УРЛ в Яндексе.
Карту сайта игнорирует.
Редирект (301) - три недели назад выставлен.
Вопрос: как яше правильно, с максимальной скоростью, объяснить - ту, которая /node/xxx выкинь, с ЧПУ - возьми на вооружение.
__________________
Сайты на Друпале, я держу здесь.
ubuntu вне форума   Ответить с цитированием
Старый 19.07.2010, 19:35   #2
Специалист
 
Аватар для DiAksID
 
Регистрация: 02.08.2008
Сообщений: 304
Вес репутации: 206
DiAksID - просто великолепная личностьDiAksID - просто великолепная личностьDiAksID - просто великолепная личностьDiAksID - просто великолепная личностьDiAksID - просто великолепная личностьDiAksID - просто великолепная личностьDiAksID - просто великолепная личность
Отправить сообщение для DiAksID с помощью ICQ
По умолчанию

Цитата:
Сообщение от ubuntu Посмотреть сообщение
Карту сайта игнорирует.
ПСы не исключают страниц, которые "вне сайтмэп". она для них - просто зона повышенного внимания. ссылочный бот и с сайтмэп будет продолжать по сайту лазать.

Цитата:
Сообщение от ubuntu Посмотреть сообщение
Редирект (301) - три недели назад выставлен
значит всё ОК будет. ну а ссылки то на старые экземпляры тоже удалили?
DiAksID вне форума   Ответить с цитированием
Старый 20.07.2010, 17:20   #3
Печник
 
Аватар для ubuntu
 
Регистрация: 11.10.2009
Адрес: Наш мир
Сообщений: 2,060
Вес репутации: 232
ubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордится
По умолчанию

На старые экземпляры, ссылки висели всего полчаса, от заливки шаблона на сайт до установки ЧПУ. Сейчас удалил один урл в вебмастере, посмотрим, что получится.
Кстати, интересный момент обнаружил, по некоторым закупленным анкорам находится страница /node/xxx с пометкой - найдена по ссылке. Закупалось все на ЧПУшные адреса, естественно.

Добавлено через 3 минуты
Не удалил
Говорит:
"Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex".
__________________
Сайты на Друпале, я держу здесь.

Последний раз редактировалось ubuntu; 20.07.2010 в 17:20. Причина: Добавлено сообщение
ubuntu вне форума   Ответить с цитированием
Старый 20.07.2010, 18:40   #4
Эксперт
 
Аватар для Shketus
 
Регистрация: 01.10.2009
Адрес: kaliningrad.biz
Сообщений: 1,058
Вес репутации: 269
Shketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущее
По умолчанию

В роботсе пропиши запрет для node, на след ап должен выкинуть.

Добавлено через 9 минут
Цитата:
Сообщение от ubuntu Посмотреть сообщение
Говорит:
"Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex".
Ну правильно говорит. Это 3 повода для удаления страницы из индекса. Метатег не прописать, так как контент совпадает с чпушной страницей, код 404 долго. Остается самое простое: роботс:
Цитата:
User-Agent: Yandex
Disallow: /node/
Host: site.ru

Последний раз редактировалось Shketus; 20.07.2010 в 18:40. Причина: Добавлено сообщение
Shketus вне форума   Ответить с цитированием
Старый 21.07.2010, 15:32   #5
Печник
 
Аватар для ubuntu
 
Регистрация: 11.10.2009
Адрес: Наш мир
Сообщений: 2,060
Вес репутации: 232
ubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордится
По умолчанию

Цитата:
Сообщение от Shketus Посмотреть сообщение
В роботсе пропиши запрет для node, на след ап должен выкинуть.
Не получается. У меня с десяток сайтов на одном движке, половина из них без ЧПУ, а роботс один на всех. Иначе я бы давно прописал.
__________________
Сайты на Друпале, я держу здесь.
ubuntu вне форума   Ответить с цитированием
Старый 21.07.2010, 16:09   #6
Эксперт
 
Аватар для Shketus
 
Регистрация: 01.10.2009
Адрес: kaliningrad.biz
Сообщений: 1,058
Вес репутации: 269
Shketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущее
По умолчанию

Цитата:
Сообщение от ubuntu Посмотреть сообщение
Не получается. У меня с десяток сайтов на одном движке, половина из них без ЧПУ, а роботс один на всех. Иначе я бы давно прописал.
А страниц очень много которые нужно из индекса убрать? Может просто списком сделать?
Цитата:
User-Agent: Yandex
Disallow: /node/xx1
Disallow: /node/xx2
Disallow: /node/xx3
Disallow: /node/xx4
Disallow: /node/xx5
Host: site.ru
Или наоборот все запретить и директивой Allow нужное разрешить индексировать?
Shketus вне форума   Ответить с цитированием
Старый 21.07.2010, 16:25   #7
Печник
 
Аватар для ubuntu
 
Регистрация: 11.10.2009
Адрес: Наш мир
Сообщений: 2,060
Вес репутации: 232
ubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордится
По умолчанию

Страниц всего 3,
node/3
node/6
node/8
Но такие есть на всех сайтах, так как сайты поднимаю из одной заготовки.
Если только попробовать их запретить на короткое время. Удалить в вебмастере и запрет снять.
__________________
Сайты на Друпале, я держу здесь.
ubuntu вне форума   Ответить с цитированием
Старый 21.07.2010, 16:29   #8
Эксперт
 
Аватар для Shketus
 
Регистрация: 01.10.2009
Адрес: kaliningrad.biz
Сообщений: 1,058
Вес репутации: 269
Shketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущее
По умолчанию

Ну так какие проблемы-то?
Дописываем 3 строчки в роботс и все. Да и в заготовке тоже можно прописать.

Не понял зачем
Цитата:
Сообщение от ubuntu Посмотреть сообщение
Если только попробовать их запретить на короткое время. Удалить в вебмастере и запрет снять.
?
Shketus вне форума   Ответить с цитированием
Старый 21.07.2010, 18:48   #9
Печник
 
Аватар для ubuntu
 
Регистрация: 11.10.2009
Адрес: Наш мир
Сообщений: 2,060
Вес репутации: 232
ubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордитсяubuntu - за этого человека можно гордится
По умолчанию

Похоже, я вас не понял.
Если я сделаю в роботс - так:
User-Agent: Yandex
Disallow: /node/3
Disallow: /node/6
Disallow: /node/8
то поставлю запрет на индексирование для всех сайтов, с этого аккаунта. А там, сайты клиентов.
Host: site.ru
Вообще не в тему.
Зеркальщик, конечно не склеит, совершенно разные сайты. Но просто - не в тему.
__________________
Сайты на Друпале, я держу здесь.
ubuntu вне форума   Ответить с цитированием
Старый 21.07.2010, 19:55   #10
Эксперт
 
Аватар для Shketus
 
Регистрация: 01.10.2009
Адрес: kaliningrad.biz
Сообщений: 1,058
Вес репутации: 269
Shketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущееShketus - прекрасное будущее
По умолчанию

Цитата:
Сообщение от ubuntu Посмотреть сообщение
Похоже, я вас не понял
Друг друга не понимаем))

Цитата:
Сообщение от ubuntu Посмотреть сообщение
Если я сделаю в роботс - так:
User-Agent: Yandex
Disallow: /node/3
Disallow: /node/6
Disallow: /node/8
то поставлю запрет на индексирование для всех сайтов, с этого аккаунта. А там, сайты клиентов.
Если так сделаете, то запретите индексировать документы начинающиеся с /node/3, /node/6 и /node/8 . У Вас клиентские сайты именно на этих 3 страницах??


Цитата:
Сообщение от ubuntu Посмотреть сообщение
Host: site.ru
Вообще не в тему.
Зеркальщик, конечно не склеит, совершенно разные сайты. Но просто - не в тему.
Ну это просто в формат. Стандарт роботса.
http://help.yandex.ru/webmaster/?id=996567
Shketus вне форума   Ответить с цитированием
Ответ


Ваши права в разделе
Вы не можете создавать новые темы
Вы не можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

BB коды Вкл.
Смайлы Вкл.
[IMG] код Вкл.
HTML код Выкл.

Быстрый переход

Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Склейка avgaz Разработка и сопровождение сайтов 7 24.04.2010 18:54
Склейка??? Fason Вопросы по работе системы 4 11.05.2009 12:06
Склейка PR www.bla-bla-bla.ru и bla-bla-bla.ru Saber Google, MSN, Yahoo 4 16.03.2009 02:26
склейка похожих страниц. _N_ Общие вопросы оптимизации 0 29.12.2008 13:55
Склейка PR DRIVER Курилка 3 16.10.2008 10:09


Часовой пояс GMT +3, время: 14:56.