Старый 13.06.2010, 23:17   #1
Новичок
 
Регистрация: 13.06.2010
Сообщений: 3
Вес репутации: 0
nemoxxi на пути к лучшему
По умолчанию подскажите по робот.txt

хочу запредить индексацию дублей вот например такая страница

/index.php?option=com_content&view=article&id=2&Ite mid=3

нужно оставить страницы у которых есть часть com_content и убать те у которых есть часть Itemid=3

верна ли такая запись в роботе:
Allow:/*com_content
Disallow: /*Itemid=3$
nemoxxi вне форума   Ответить с цитированием
Старый 14.06.2010, 00:34   #2
Мастер
 
Аватар для WEB-Master
 
Регистрация: 29.03.2010
Адрес: <html></html>
Сообщений: 624
Вес репутации: 155
WEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордится
По умолчанию

Allow не нужно (оно уже не используется, все что не запрещено по умолчанию разрешено).

ИМХО Disallow: /*Itemid=3 должно работать (добавьте и через день посмотрите в панели управления яши и гоши что они говорят)
WEB-Master вне форума   Ответить с цитированием
Старый 14.06.2010, 00:47   #3
Новичок
 
Регистрация: 13.06.2010
Сообщений: 3
Вес репутации: 0
nemoxxi на пути к лучшему
По умолчанию

Disallow работает вот только возможно ли как-то сделать чтоб оно не исключало страницы с com_content, это меню их у меня штук 5 но они под общую гребенку попадают.
nemoxxi вне форума   Ответить с цитированием
Старый 14.06.2010, 12:18   #4
Мастер
 
Аватар для WEB-Master
 
Регистрация: 29.03.2010
Адрес: <html></html>
Сообщений: 624
Вес репутации: 155
WEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордится
По умолчанию

Цитата:
Сообщение от nemoxxi Посмотреть сообщение
Disallow работает вот только возможно ли как-то сделать чтоб оно не исключало страницы с com_content, это меню их у меня штук 5 но они под общую гребенку попадают.
покажи по 2 примера ссылок, которые нужно заблокировать и те что не нужно, может что придумаю.

А поменять те 5 ссылок не проще?
WEB-Master вне форума   Ответить с цитированием
Старый 14.06.2010, 12:43   #5
Пожиратель черепашкоВ
 
Аватар для chahlic
 
Регистрация: 24.12.2008
Адрес: Телемелетрямдия
Сообщений: 4,742
Вес репутации: 353
chahlic - прекрасное будущееchahlic - прекрасное будущееchahlic - прекрасное будущееchahlic - прекрасное будущееchahlic - прекрасное будущееchahlic - прекрасное будущееchahlic - прекрасное будущееchahlic - прекрасное будущееchahlic - прекрасное будущееchahlic - прекрасное будущееchahlic - прекрасное будущее
По умолчанию

Цитата:
Сообщение от nemoxxi Посмотреть сообщение
верна ли такая запись в роботе:
Allow:/*com_content
Disallow: /*Itemid=3$
Если все страницы через index.php, то

Disallow: /index.php?*Itemid=

должно быть достаточно, чтробы не индексировались страницы, в урле которых есть Itemid=

ПысЫ: если пару страниц-дублей, то может через http://webmaster.yandex.ru/delurl.xml (если сайт в панели есть)?
__________________
Смотри цены в САПе в своей валюте: плагин "Конвертер Валют" для ФФ.
chahlic вне форума   Ответить с цитированием
Старый 14.06.2010, 12:53   #6
Новичок
 
Регистрация: 13.06.2010
Сообщений: 3
Вес репутации: 0
nemoxxi на пути к лучшему
По умолчанию

Пример:
index.php?option=com_content&view=article&id=2&Ite mid=3
index.php?option=com_virtuemart&page=shop.browse&c ategory_id=44&Itemid=1

index.php?page=shop.browse&category_id=6&option=co m_virtuemart&Itemid=3
index.php?option=com_virtuemart&page=shop.browse&c ategory_id=44&Itemid=3

Нужно чтоб первые 2 ссылки индексировались а вторые 2 ннет
nemoxxi вне форума   Ответить с цитированием
Старый 14.06.2010, 13:27   #7
Эксперт
 
Регистрация: 12.12.2009
Адрес: Ростов-на-Дону
Сообщений: 1,537
Вес репутации: 200
eresik - прекрасное будущееeresik - прекрасное будущееeresik - прекрасное будущееeresik - прекрасное будущееeresik - прекрасное будущееeresik - прекрасное будущееeresik - прекрасное будущееeresik - прекрасное будущееeresik - прекрасное будущееeresik - прекрасное будущееeresik - прекрасное будущее
По умолчанию

по-моему проще в саму страницу вставлять мета noindex
__________________
Партнёрка знакомств с блоком SAPE. Сапа без расходов на хостинг!
Самый удобный Хостинг (в т.ч. сейчас - бесплатное полугодовое тестирование хостинга Node.JS)
eresik вне форума   Ответить с цитированием
Старый 14.06.2010, 13:55   #8
Мастер
 
Аватар для WEB-Master
 
Регистрация: 29.03.2010
Адрес: <html></html>
Сообщений: 624
Вес репутации: 155
WEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордитсяWEB-Master - за этого человека можно гордится
По умолчанию

nemoxxi, через роботс.тхт врятли получится, у тебя 2 варианта:

1. изменить урл тех 5 страниц, которые нужно оставить
2. как сказал eresik настроить что бы на не нужных страницах выводилось
<meta name="robots" content="noindex, nofollow">
WEB-Master вне форума   Ответить с цитированием
Ответ

Опции темы

Ваши права в разделе
Вы не можете создавать новые темы
Вы не можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

BB коды Вкл.
Смайлы Вкл.
[IMG] код Вкл.
HTML код Выкл.

Быстрый переход

Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
робот MSN Sandsstorm Google, MSN, Yahoo 10 21.04.2009 20:37
Вы — робот Sapеr Курилка 7 29.10.2008 21:55
Я РОБОТ :) Гном Весельчак Вопросы по работе системы 17 23.10.2008 01:08
Я - не робот! Parazny Ошибки при работе с системой 9 24.12.2007 22:22


Часовой пояс GMT +3, время: 22:24.