Форум SAPE.RU

Форум SAPE.RU (http://forum.sape.ru/index.php)
-   Софт для оптимизаторов и вебмастеров (http://forum.sape.ru/forumdisplay.php?f=36)
-   -   Вебмастер SAPE: дополнение к Firefox 🦊 (http://forum.sape.ru/showthread.php?t=53578)

Simplehuman 01.08.2011 14:27

На счет бана - проверяю с разных IP, кєш периодически чистится, капчу ввожу вручную.

И еще один вопрос - можно ли осуществить работу плагина в PR Sape? Для проверки проиндексированности ссылки и т. д.

Wink 01.08.2011 15:01

PR Sape не планируется вот прям завтра, но возможно в будущем появится. У меня нет там сейчас проектов, поэтому верстку страниц не вижу.

sni 02.08.2011 19:02

написал в реформале, голосуйте если кому идея понравится)

Встроенный блэклист с масками и отдельными урлами

В сапе признались что не сделают блеклисты на отдельные страницы, изза нагрузок на сервер. Можно перенести нагрузку на плагин.
Суть идеи: бывают хорошие сайты с плохими страницами или разделами (например на сайте форум, или профили пользователей, или раздел с фотками без контента). И сайт удалить жалко и в заявки со временем опять будут лезть эти ненужные страницы.

Можно сделать локальный блеклист, в который можно заносить отдельные страницы или маски урлов. Например site.ru/forum/*, site.ru*image.php*, http://site.ru/proj/?mod=add, который на подобии кнопки LF будет выделять все урлы, попадающие под набор масок.

Еще одно применение - это "легкий" GBL, или GBL без удаления. Иногда нужно занести какие-то сайты в глобальный блэклист, но не удалять старые уже размещенные ссылки (они могут стоять уже сто лет и вполне себе работать, а новые уже не будут учтены яндексом изза ужесточившихся алгоритмов). Тогда можно просто списки таких сайтов помещать в этот блеклист. А потом прочищать нужные проекты и отклонять вновь прибывшие ссылки с этих сайтов.
(Локальный блеклист на все урлы проекта в сапе отсутствует, поэтому даже с одного урла сложно снять какой-то список сайтов.)

stephano 04.08.2011 07:00

Ребят, нужна ваша помощь!

Имеется необходимость периодически проверять по 7-10К ссылок. Решил остановиться на плагине Винка. Зарегистрировал 10 аккаунтов в Яндекс.XML по 1000 запросов (подтвердил телефонами). Подключил к дедику 10 ip адресов, настроил прокси-сервер.

Но Яндекс.XML теперь требует вводить в качестве Адреса запроса вот такую шнягу, уникальную для каждого аккаунта:

Если оставить как раньше просто http://xmlsearch.yandex.ru/xmlsearch , то часто выскакивает ошибка "Ошибка XML (44)" и проверка прекращается.

Получается приходится после каждой 1000 проверок менять в настройках плагина Винка Адрес запроса. Это же не дело. Есть ли выход из этой ситуации? Кто как проверяет такой объем через Я.XML?

Ken_Kaniff 04.08.2011 08:01

stephano, а через обычную выдачу и антикапчу не?

astari 05.08.2011 11:40

Здравствуйте, а куда делся "молоточек" ? У меня на его месте реклама. Не могу изменить параметры для проверяемых страниц

Wink 05.08.2011 11:54

astari, реклама тракторного завода? :)

astari 05.08.2011 12:13

Цитата:

Сообщение от Wink (Сообщение 1117964)
astari, реклама тракторного завода? :)

ага :)

Ой.. а вчера вроде как и открывался сайт .. :D Может просто уже спать хотела:D

GoldenPuma 06.08.2011 01:48

второй день подряд не могу проверить Yap в списке заявок через данныцй тулбар
вроде проверка начинается, а потом вылетает сообщение "ошибка XML (33) :-("
как починить?

Kater 06.08.2011 07:05

Цитата:

Сообщение от GoldenPuma (Сообщение 1118685)
второй день подряд не могу проверить Yap в списке заявок через данныцй тулбар
вроде проверка начинается, а потом вылетает сообщение "ошибка XML (33) :-("
как починить?

аналогично..


Часовой пояс GMT +3, время: 10:59.

Работает на vBulletin® версия 3.8.7.
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Перевод: zCarot
SAPE.RU — система купли-продажи ссылок с главных и внутренних страниц сайтов.