18.12.2010, 14:21 | #1 |
Новичок
Регистрация: 06.11.2010
Адрес: Ukraine
Сообщений: 54
Вес репутации: 166
|
Повторные waitы и г...оанкоры.
Вопрос к вебмастерам. Вот такая ситуация, пользуюсь плагином для мозилы, вебмастер sape. Фильтрую заявки. Там есть кнопочка "wait" повторные вейты. Так вот повторным "вейтам" отказываю, а они прут снова как ни в чем не бывало. Правильно ли я делаю? И еще такой вопрос, как относиться к заявкам типа "www.sait.ru" , или "Лучшиие двери www.sait.com" , или "лучший погрузчик первый раз" принимать ли такие ссылки, или просто банить эти заявки? Спасибо.
|
18.12.2010, 14:27 | #2 | ||
Эксперт
Регистрация: 17.11.2009
Адрес: Донбасс
Сообщений: 1,481
Вес репутации: 234
|
Цитата:
Цитата:
Пожалуйста.
__________________
|
||
18.12.2010, 14:30 | #3 |
шатапфакап
Регистрация: 01.09.2008
Адрес: там где клен шумит (с)
Сообщений: 1,472
Вес репутации: 265
|
1) особо хитрож...хитрозадые О шлют во первых тоннами такие заявки на множество доменов, иногда даже просто используют очень похожие имена(замена 1 или неск. символов), НО иногда действительно ГБЛ не срабатывает уже по этому поводу сотню раз обсуждали
2) исходите из ваших пожеланий, если сайт(ы) хороший, то смысл его губить гумноанкорами? Если сайт не жалко то можно принимать все подряд и сиалис и казино и травки
__________________
|
|
|
Похожие темы | ||||
Тема | Автор | Раздел | Ответов | Последнее сообщение |
WAITы не самоудаляются | stradivari | Вопросы по работе системы | 39 | 05.06.2010 16:31 |
Повторные заявки на одно и то же место | Memento | Вопросы от новичков | 3 | 16.04.2010 18:33 |
WAITы что, занимают место ? | _SP_ | Вопросы по работе системы | 194 | 05.04.2010 11:04 |
Повторные страницы на сайте. Запретить их в robots.txt ? | blackice1406 | Вопросы от новичков | 4 | 02.09.2009 12:44 |
Хорошо было бы предусмотреть повторные индексации площадок | alexeee | Пожелания пользователей системы | 17 | 06.04.2007 22:42 |
Часовой пояс GMT +3, время: 09:52.