Как посчитать колличество внутренних ссылок на конкретную страницу?
Провожу анализ конкурентов, беру определенную страницу.
Необходимо посчитать сколько есть внутренних ссылок на данную страницу. Необходимо получить два варианта: - вообще все ссылки (тут будет учитываться в том числе навигация); - только ссылки с определенным текстом анкора. Какую ПС использовать, видимо, все равно, главное чтобы получить более-менее точный результат, т.е. может быть составить какой-то сложный запрос. Или может есть какой-то сервис/программа? |
Ни разу о подобных программ/сервисах не слышал.
Как это технически вообще можно реализовать?? Сграбить весь сайт себе на комп и там уже искать по коду site.ru/str1.html и просто str1.html? Но на сколько я помню на Вашем сайте почти половина лимона страниц, на конкурентах думаю также... целесообразно ли. Или еще какие-то варианты есть? |
нету, только вручную перелопатить сайт конкурента. или взять генератор сайтмэп - они генерят все ссылки, что есть, и даже дубли, и все-равно вручную вычислять придется - сколько раз на сайте каждая повторяется. Но текстов из генератора сайтмэпов вам не узнать... а времени уйдет много, если сайт конкурента имеет тысячи страниц. Поэтому лучше даже не заморачиваться гемороем
|
Ну есть например инструмент под названием Yahoo Links, показывает сколько ссылок на данную страницу, но там учитываются только внешние ссылки.
Еще можно покопаться в кэше ПС и выяснить какие там анкоры отпечатались, собственно это проверяем кнопкой YL в сапотулбаре. Добавлено через 1 минуту Shketus, какие граберы посоветуешь? очень много разных перепробовал, но практически все спотыкаются при количестве страниц более 10к |
Cyj, я честно даже не знаю чем помочь. Больше 10к страниц мне в голову не приходило грабить, поэтому советовать сложно.
Блин, но всё-таки 500к страниц, бог с ним, с граббингом. А вот потом что с ним делать... Искать ссылки на каждую страницу из 500к файлов, это же ппц. Мне даже трудно представить сколько это по времени выйдет. Но других вариантов, именно с внутренними ссылками я не вижу. |
Сграбленый сайт легко обрабатывать, существует полно текстовых редакторов, в которых поиск можно осуществлять по регулярному выражению и сразу по содержимому файлов директории, а не только открытого файла.
Например, jedit или notepad++ Парсить конкретный сайт еще проще, т.к. не надо заботится о задержках/проксях как при работе с ПС. Как вариант, можно взять уже готовый файл sitemap.xml, как правило, сайтмапы делаются самими владельцами сайтов. А потом стянуть для анализа только нужные страницы. Добавлено через 1 минуту .... Но хотелось бы иметь уже готовую прогу )) |
В гугле запросы типо:
link:http://www.php.net/ link:http://www.php.net/downloads.php link:http://www.php.net/license/3_01.txt ...а там ковыряйтесь кто на кого и как ссылается. Это всё конечно теоретически не 100%, но всетаки что-то ;) |
Cyj, я прекрасно знаю что есть различные редакторы, что при парсинге не нужно задержек (хотя на различных справочниках/каталогах бывает нужно).
Вопрос сколько на тех сайтах страниц, я просто оценивал по Вашему сайта, и сделал вывод что это оч много времени займет. |
pgolovko, это неадекватная выдача будет, гугл очень небольшое количество бэклинков принимает
Цитата:
|
Цитата:
|
Часовой пояс GMT +3, время: 11:16. |
Работает на vBulletin® версия 3.8.7.
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Перевод: zCarot
SAPE.RU — система купли-продажи ссылок с главных и внутренних страниц сайтов.