Форум SAPE.RU

Форум SAPE.RU (http://forum.sape.ru/index.php)
-   Пожелания пользователей системы (http://forum.sape.ru/forumdisplay.php?f=15)
-   -   Фильтр доноров (очень важно) (http://forum.sape.ru/showthread.php?t=88666)

Ist 16.04.2013 09:17

Фильтр доноров (очень важно)
 
Добрый день.
Напишу то, что очень необходимо мне, как оптимизатору с немалым количеством сайтов, продвигаемых в системе. А другие участники форума и оптимизаторы сервиса, думаю, меня поддержат.

1) Работаю в полуавтоматическом режиме сбора доноров. Приблизительно у робота sape для сбора доноров уходит ~12 часов (чтобы забить все тексты ссылок) так? В итоге, из ~1000 доноров смело могу удалять (даже без анализа страниц) те страницы, url которых содержат: %tags%, %page%, %register% и тд, т.к. это служебные страницы. У каждого конечно будет свой список.
Например я не закупаю ссылки со страниц пагинации (%page%), а кто-то закупает, поэтому список таких страниц у каждого будет свой естественно. Так вот, из ~1000 доноров удаляю 300-400. А ведь вместо этих 300-400 страниц доноров могли быть страницы статей\новостей, что вполне для моих целей подходят! Каждый раз, приходиться фильтровать данные страницы через allsubmitter, после чего мне опять нужно ждать ~12 часов, чтобы робот смог до собирать эти 300-400 страниц доноров (и опять же, среди этих страниц нужно половину удалять по той же причине). А учитывая, что это только по одному сайту, а всего сайтов больше 10 - времени у меня тратится очень очень очень много!
Поэтому предлагаю добавить возможность создавать такие списки в фильтре, чтобы робот sape не собирал страницы доноров, url которых содержат данные атрибуты.
Наглядно можно увидеть функционал фильтра в allsubmitter.
Наглядный пример того, сколько "не эффективных" страниц я удалил сегодня по 1 крупному сайту:

2) Основная задача фильтров какая? - Правильно, исключить ГС и подобрать наиболее качественные площадки. Как показывает практика, доноры с количеством страниц в индексе Яндекса менее 300 - их даже нельзя приравнять к ГС. Смело можно 99% таких доноров отправлять в GBL.
При подборе доноров в sape, мы видим количество страниц в индексе Яндекса и Google, так почему не использовать эти данные?
Так вот, очень хотелось бы, чтобы можно было задать фильтр минимального количества страниц в индексе поисковых систем.

Думаю, все понятно объяснил. Надеюсь и молюсь, что в ближайшее время, данные фильтры будут реализованы!

zhegloff 16.04.2013 10:17

Цитата:

Сообщение от Ist (Сообщение 1331377)
Думаю, все понятно объяснил. Надеюсь и молюсь, что в ближайшее время, данные фильтры будут реализованы!

Вообще-то намного проще и быстрее это делать плагином винка.
А функционал такой давно просят, но, видимо для его реализации есть какие-то препоны.

Клон 16.04.2013 10:24

Цитата:

Сообщение от zhegloff (Сообщение 1331397)
А функционал такой давно просят, но, видимо для его реализации есть какие-то препоны.

а покажите топик еще раз кому надо, вдруг препоны уже прошли или стали слабее

Ist 16.04.2013 10:58

Цитата:

Вообще-то намного проще и быстрее это делать плагином винка.
Проблема то не в том, как фильтровать, а в том, что робот сапы собирает кучу ненужных страниц для закупки ссылок

zhegloff 16.04.2013 11:17

Цитата:

Сообщение от Ist (Сообщение 1331421)
Проблема то не в том, как фильтровать, а в том, что робот сапы собирает кучу ненужных страниц для закупки ссылок

В сапе десятки тысяч пользователей и у каждого свои понятия о нужности. А серверные можности ограничены. Автомат вон и так полсуток должен работать, чтобы удовлетворить всех.

Ist 16.04.2013 11:55

Цитата:

В сапе десятки тысяч пользователей и у каждого свои понятия о нужности. А серверные можности ограничены. Автомат вон и так полсуток должен работать, чтобы удовлетворить всех.
Если говорить конкретно за себя - я все это понимаю. Раздел форума с предложениями - я разместил предложение по улучшению сервиса, так как считаю, что это нужно не только мне, как оптимизатору и данное нововведение будет полезно многим.
Заметь те, эти фильтры не на столько сложны в функционале и реализовать их весьма не трудно. Единственное, что встает под вопросом - это их ресурсоемкость!

zhegloff 16.04.2013 12:08

Цитата:

Сообщение от Ist (Сообщение 1331444)
Единственное, что встает под вопросом - это их ресурсоемкость!

Вот в том то и дело. У пользователя фильтрация плагином - это 3 клика мышкой и 2 мс процессорного времени. На стороне сервера сия приблуда может вылится в дополнительные полчаса работы автомата.

Ist 16.04.2013 13:11

Цитата:

У пользователя фильтрация плагином - это 3 клика мышкой и 2 мс процессорного времени
Не совсем верно, это: 3 клика мышкой, 2 мс процессорного времени и ~12 часов простоя работы оптимизатора
Жаль что сервис sape не расширяет возможности за счет абонентской платы, которую можно пустить на буст железа. Я ценю свое время, мне лично это нужно и я готов платить, если бы сервис развивался в этом направлении!

Клон 16.04.2013 13:13

Цитата:

Сообщение от Ist (Сообщение 1331472)
и ~12 часов простоя работы оптимизатора

ну вместо 1000 заказывайте 1500, как раз 500 нахер - 1000 останется

investory 16.04.2013 13:15

Цитата:

Сообщение от Клон (Сообщение 1331475)
ну вместо 1000 заказывайте 1500, как раз 500 нахер - 1000 останется

Это слишком простое решение:D


Часовой пояс GMT +3, время: 06:37.

Работает на vBulletin® версия 3.8.7.
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Перевод: zCarot
SAPE.RU — система купли-продажи ссылок с главных и внутренних страниц сайтов.