Когда вы уже реализуете, чтобы при проверки GC показывалась дата сохраненной копии, как реализовано в YC?
|
Цитата:
Цитата:
Цитата:
Цитата:
|
Wink, а можно добавить в настройки для "Проверка исходящих ссылок домена [D]" > "Отмечать если в среднем на странице более [n] исходящих ссылок" возможность задавать значения меньше 1 прямо в настройках?
Реализовать можно двумя полями: первое для целого числа, второе для цифры после запятой. Менять напрямую в bing.js очень неудобно, после каждого обновления значение слетает. А в настройках этого не видно. И сейчас что-то совсем не работает прямое изменение, почему-то используется цифра "1" как указано в интерфейсе. Думаю это нужно не только мне, сайты с "в среднем 1 исходящей на странице" жутко заспамлены, на практике актуальны значения 0.2-0.5. |
Wink, второй день из Semrush при определении посещалки не выдает данные. Это что то у них сломалось, или они закрыли лавочку и теперь их данных не посмотреть?
|
Townsman, исправил, релиз на первой странице темы. Ну и на мозилле скоро будет.
Sattt, добавил, тестируйте. |
Цитата:
Добавлено через 12 минут Установил свежую версию браузера - заработало. Где-то всё же косяк есть. |
Цитата:
Основной косяк в том, что API SEMRush сейчас платный, а сколько бесплатных запросов можно делать и с какой частотой, пока неизвестно. |
Wink, в последнеё версии плагина исчезло поле для ввода ключа API для SEMRush ((
А я пользовался платным официальным ключём от SEMRush. Так что теперь делать? |
RunesReader, и что, бесплатный вариант не работает? Ключ-то не проблема вернуть, только какой смысл, если бесплатно можно.
|
Цитата:
|
Будем решать проблемы по мере их возникновения. На данный момент у бесплатной версии нет ограничений на количество запросов.
|
Wink, прошу прощения, а фичу одновременной проверки капч у разных процессов (например YAP и GC) стоит ждать? :)
|
После обновления до последней версии 2.20.11 с версии 2.20.10 опять стал банить Гугл при большом количестве проверок с использованием antigate.com :(
Опять же если весь день следить за процессом и капчи вводить вручную - банов я не получаю |
Wink, а можно доработать форму проверки ссылок?
Чтобы вводить не только урлы, но и урлы с анкором для проверки индексации ссылок. Например url[tab]анкор Если в строке нет символов табуляции, добавлять ее как сейчас, если есть - с анкором. Спасибо что сделали эту фичу, вообще, я все пытался - но руки не дошли, времени не хватило. Добавлено через 17 часов 58 минут Цитата:
Попробуйте в опциях выбрать в среднем 1 ссылку на страницу - он все сайты поудаляет тогда. Как одно из возможных решений брать кол-во страниц из индекса яндекса. Но данные тоже неточные будут тогда. Страницы и ссылки из разных источников - не гуд. |
Здравствуйте! Как зайти в настройки плагина, что бы увеличить интервал времени для проверки Страниц в индексе Яндекса и не так часто вводить качу? А то у меня на 1000 стр весь день уйдет на проверку..((
|
Wink, спасибо за новую версию.
|
Цитата:
|
Цитата:
Цитата:
Цитата:
Цитата:
|
Подскажите, почему останавливается проверка Ex? Нужно проверить 8 тыс. страниц на кол-во контента, проверяет где то 500 и останавливается.
|
Ну нажмите кнопку запуска еще раз, делов-то
|
При проверке на наличие в индексе Яндексе страниц, плагин почему то некоторые помечает красным, хотя если щелкнуть, то страница есть. Это почему так?
|
Здравствуйте!
При проверке сайта на трафик я использую SemRush. Суть в том, что мне нужно проверять трафик в US регионе а не в RU. Как мне настроить данным образом плагин? Спасибо. |
soberman, обновитесь до версии 2.20.13, на первой странице темы есть
Astrol, понятия не имею. Нужны конкретные примеры таких страниц и настройки, с которыми вы проверяли (через xml, tut.by, напямую через яндекс или еще как). Для начала попробуйте очистить или отключить кэш проверок на гуглевской вкладке настроек и перепроверить еще раз. |
Если проверять гугл кеш через инфо, то капча нормально распознается через анигейт, если же поставить через кеш то пишет что капча не найдена и останавливается, пробовал с API и без
|
Цитата:
|
То есть Гугл может просто заблокировать меня на время без возможности вводить капчу?
|
Цитата:
|
Astrol, все три страницы из вашего примера плагин показал как проиндексированные. Я не могу исправить ошибку, если сам её не вижу.
aniaml_x, да, и делает это довольно часто, если большие объемы проверять. |
Wink, а что то можно скинуть Вам, чтобы увидели?
|
Astrol, попробуйте проверить эти же ссылки инструментом "Проверка ссылок" (вторая кнопка справа). Если будет показывать, что не в индексе, сделаю отладочную версию, чтобы разобраться.
|
Wink, а в этом инструменте все верно, отметил зеленым. Что за чудеса?
|
Подскажите каким способом из опыта лучше проверять большие объемы Google кеш (чтоб Гугл не банил)? Или лучше использовать SeoBudget или Seolib? Если да то какой лучше и сколько стоит 1 запрос у этих сервисов?
|
aniaml_x, на этапе внедрения этих сервисов мне больше всего понравилась проверка кэша SeoLib - там проверяются оба варианта адреса страницы, с www и без, плюс дополнительно сверяется адрес проверяемой страницы и адрес страницы, которая показывается в кэше, т.е. проверка на склейку заодно. По стоимости они одинаковые практически - в одном 3 копейки, в другом $0,001.
|
Спасибо за рекомендации, выбрал SeoLib работает очень быстро. Но случилась беда сегодня он перестал работать, но есть грешок то что они вчера переезжали на новый сервер. Сейчас при проверке пишет что нет денег "Not enought money", хотя на счету есть
|
У меня вроде как работает, только что потестировал. Напишите им через форму обратной связи на их сайте.
|
Цитата:
|
Wink, Инструмент [D], проверяет кол-во внешних ссылок сервисом Solomono.
А тот в свою очередь, считает за внешние ссылки все ссылки, включая закрытые Noindex'ом счетчики, картинки. Что, получаем в итоге. Оптимизатор смотрит на сайт с помощью плагина и видит что на 1000 страниц в индексе сайт имеет по 3000 - 4000 внешних ссылок. Ясно дело нафиг нужен такой сайт, оптимизатор отказывается от размещения даже не разбираясь в том что это на самом деле за "внешние ссылки". Страдают при этом и О и ВМ. Выигрывает только ГСстроители. (на ГСах счетчики ведь не нужны.) Добавлено через 27 минут Таак, теперь посетители по версии LiveInternet (инструмент [T]) Если сайт донор не использует LiveInternet то заявка отмечается плагином. Где логика? Нет данных о посетителях и нет посетителей это ведь не одно и то-же. |
Цитата:
Цитата:
|
Цитата:
В моей логике, опция должна делать ровно то о чем говориться в описании т.е. если посетителей меньше - то отмечать, а если больше или не удалось проверить - то не отмечать. Уверен многие оптимизаторы включают опцию и в результате сами не понимая того просто отсеивают нормальные сайты но без счетчика liveInternet Цитата:
Откуда оптимизатору знать такую извращенную логику плагина? В Сапе ссылки закрытые ноиндексом внешними ведь не считаются. |
Цитата:
Цитата:
|
Часовой пояс GMT +3, время: 05:58. |
Работает на vBulletin® версия 3.8.7.
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Перевод: zCarot
SAPE.RU — система купли-продажи ссылок с главных и внутренних страниц сайтов.