Форум SAPE.RU

Форум SAPE.RU (http://forum.sape.ru/index.php)
-   Яндекс (http://forum.sape.ru/forumdisplay.php?f=16)
-   -   Файл Robots.txt (http://forum.sape.ru/showthread.php?t=55306)

Alexa137 10.07.2010 01:21

Файл Robots.txt
 
Здравствуйте!
Вот создаю новый сайт, хочу все сделать правильно, и возник вопрос:обязательно ли делать файл Robots.txt?
Все, что нужно закрыть от индексации, я закрыла тегами noindex. Больше закрывать нечего.
И не забанит ли Яша из-за отсутствия файла?

XAHTOB 10.07.2010 01:28

Цитата:

Сообщение от Alexa137 (Сообщение 857146)
И не забанит ли Яша из-за отсутствия файла?

не забанит. и если
Цитата:

Сообщение от Alexa137 (Сообщение 857146)
Больше закрывать нечего.

то, в принципе, роботс не нужен, но на всякий случай, не мешало бы поставить, вдруг чего то забыли закрыть.:)

Alexa137 10.07.2010 02:20

Цитата:

Сообщение от XAHTOB (Сообщение 857150)
не забанит. и если

то, в принципе, роботс не нужен, но на всякий случай, не мешало бы поставить, вдруг чего то забыли закрыть.:)

Спасибо:)На всякий случай сделала.

DiAksID 10.07.2010 03:07

Цитата:

Сообщение от XAHTOB (Сообщение 857150)
не забанит. и если

то, в принципе, роботс не нужен, но на всякий случай, не мешало бы поставить, вдруг чего то забыли закрыть.:)

опять - лишь бы ляпнуть, хонтяра? :D

"в принципе" - роботс совершенно необходим с точки зрения оптимизации:

- что бы дойти до тега "noindex" и понять что индексировать не надо поисковый бот будет каждый раз, снова и снова, заглотывать ненужную старницу сайта, потратив время и замедлив индексацию нужных страниц. а время на каждый заход на сайт у ботов ограничено, объем обрабатываемого контента за проход - то же.

одного этого более чем достаточно, но для "гуру" вроде XAHTOB есЧо чуть чуть:

- директива Sitemap
- важнейшая для Яши (хоть и убогая по сути) директива Host

таки дела...

Leonardo 10.07.2010 03:15

роботс обязательно делать, пусть даже и не запрещать а просто прописать - правило хорошего тона
Цитата:

User-agent: *
Disallow: /
уже польза, а так желательно управлять роботами, а то они как дети малые :) одни быстрее, другие медленные, кого-то подтолкнуть нужно.а ковото придержать :). делайте отдельные секции для каждого робота

Alexa137 10.07.2010 05:25

Цитата:

Сообщение от DiAksID (Сообщение 857182)
опять - лишь бы ляпнуть, хонтяра? :D

"в принципе" - роботс совершенно необходим с точки зрения оптимизации:

- что бы дойти до тега "noindex" и понять что индексировать не надо поисковый бот будет каждый раз, снова и снова, заглотывать ненужную старницу сайта, потратив время и замедлив индексацию нужных страниц. а время на каждый заход на сайт у ботов ограничено, объем обрабатываемого контента за проход - то же.

одного этого более чем достаточно, но для "гуру" вроде XAHTOB есЧо чуть чуть:

- директива Sitemap
- важнейшая для Яши (хоть и убогая по сути) директива Host

таки дела...

Спасибо за подробный ответ. Я вот простенький роботс сделала, без директивы Host-я не въехала, что там писать. Вот есть у меня сайт, адрес в урл-строке,к примеру: htt p: / /abc.def.ru , а какой урл мне в Host писать?

maksim7 10.07.2010 05:47

Alexa137, ну вот пример: http://forum.sape.ru/robots.txt :)

Alexa137 10.07.2010 05:57

Цитата:

Сообщение от maksim7 (Сообщение 857201)
Alexa137, ну вот пример: http://forum.sape.ru/robots.txt :)

Спасибо большое!Опробуем:)

Sergoff 10.07.2010 14:40

Хотел сегодня создать такую же тему.
Раньше особо не обращал внимания, но теперь решил сделать robots-ы.
Вопросы к знающим.

Пример для DLE сайта:

User-agent: *
Disallow: /?do=feedback
Disallow: /?do=register
Disallow: /?do=lastcomments
Disallow: /?do=stats
Disallow: /?do=lastnews
Disallow: /addnews.html
Disallow: /?do=search&mode=advanced
Disallow: /index.php?do=lostpassword

Но когда захожу в панель вебмастера и проверяю, то он не воспринимает запреты. Когда указываю User-agent: Yandex , то всё гуд.

Стоит ли делать отдельно указание Яндексу, а потом дублировать для всех остальных, по типу:

User-agent: Yandex
Disallow: /?do=feedback
Disallow: /?do=register
Disallow: /?do=lastcomments
Disallow: /?do=stats
Disallow: /?do=lastnews
Disallow: /addnews.html
Disallow: /?do=search&mode=advanced
Disallow: /index.php?do=lostpassword
Host: blabla.ru

User-agent: *
Disallow: /?do=feedback
Disallow: /?do=register
Disallow: /?do=lastcomments
Disallow: /?do=stats
Disallow: /?do=lastnews
Disallow: /addnews.html
Disallow: /?do=search&mode=advanced
Disallow: /index.php?do=lostpassword
Sitemap: http://blabla.ru/sitemap.xml

И вопрос номер 2. Запрещаете ли rss ленты? По сути - это ведь дублирующийся контент. Спасибо заранее...

Добавлено через 3 минуты
Цитата:

Сообщение от Leonardo (Сообщение 857185)
роботс обязательно делать, пусть даже и не запрещать а просто прописать - правило хорошего тона

То, что ты указал - это ж вроде запрет индексирования :)



Кажется нашел ответ сам в самом яндексе:

Цитата:

причем, если обнаружено 'User-agent: Yandex', директивы для 'User-agent: *' не учитываются.
Т.е. указывая

User-agent: *
Disallow: /?do=feedback
Disallow: /?do=register

User-agent: Yandex
Host: blabla.info

Disallow он перестает учитывать... Я правильно понимаю?

eresik 10.07.2010 14:43

Цитата:

Сообщение от Sergoff (Сообщение 857371)
Стоит ли делать отдельно указание Яндексу, а потом дублировать для всех остальных,

Если разрешения/запреты одинаковые, то в этом нет никакого смысла

Добавлено через 1 минуту
Цитата:

Сообщение от Leonardo (Сообщение 857185)
роботс обязательно делать, пусть даже и не запрещать а просто прописать - правило хорошего тона
Цитата:
User-agent: *
Disallow: /
уже польза

Аналог пустого роботс:
User-agent: *
Disallow:


Часовой пояс GMT +3, время: 05:38.

Работает на vBulletin® версия 3.8.7.
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Перевод: zCarot
SAPE.RU — система купли-продажи ссылок с главных и внутренних страниц сайтов.