О возможных причина последних вылетов
По результатам тщательного анализа более чем 100 своих и клиентских сайтов у меня возникло ощущение, что я прочуял алгоритм вылета. Была проведена кое-какая работа с привлечением специалистов узкого профиля для формализации прочувстванного алгоритма.
Некоторое время назад на основе прочувстванного алгоритма составил прогноз вылета-возврата в последующие апы. На протяжении двух апов, 24-го и 26-го, прогноз удивительным образом сбылся, так что прочуял я алгоритм видимо примерно-верно. Некоторые рекомендации на основе прочувствованного. 1. Борьбы с ссылками, как таковыми, очевидно нет. По-прежнему есть борьба с плохими ссылками и с зарвавшимися вебмастерами, продающими ссылки сверх всякой меры и без контроля. Я бы даже сказал так, Яндекс перешел от борьбы с самими продажными ссылками, к борьбе за качество продажных ссылок. 2. Сами по себе продажные ссылки качественному сайту не вредят, но вот если у сайта есть определенные проблемы с точки зрения поисковки, то начиная где-то с августа наличие ссылок стало существенно более сильным "ухудшающим фактором" для таких проблемных сайтов. Иными словами совсем качественный сайт с ссылками и не очень качественный, проблемный сайт без ссылок могут по прежнему спать спокойно. А вот наличие ссылок на сайте, который уже сам по себе "проблемный" с точки зрения поисковки, теперь стало заметно сильнее делать сайт проблемным. 3. Теперь что такое "проблемный" сайт в контексте вышесказанного. Таких показателей "не очень высокого качества" для качественных с нашей точки зрения СДЛ и MFS видимо три. а) Технические проблемы с доступом робота к сайту, ошибки в коде или (Внимание, это очень важно!) запутанная навигация. Есть ощущение что вес запутанной навигации в определении "проблемности сайта" заметно вырос. Если у вас вылететел гарантировано качественный СДЛ со 100% ценными уникальными текстами - ищите лишние внутренние перелинковки и лишние, ненужные блоки навигации. б) Наличие на сайте большого числа частично дублирующегося контента (дублирующегося в рамках самого сайта), а также наличие большого количества URI, содержимое которых необоснованно часто частично или полностью обновляется. Это могут быть например в первом случае текст статьи с комментариями и без комментарием, если они доступны по разным адресам. Во-втором -- наличие каких-то блоков (типа "похожие статьи", "читайте по теме") которые меняются при каждом заходе робота. в) Наличие большого количества неуника, в том числе и синонимизированного. Качество определения Яндексом синоминизированных дублей заметно возросло. Теперь, если меняя отдельные слова, вы оставляете между ними куски старого неизмененного текста, хотя бы всего по несколько слов -- Яндекс вас по этому признаку вычислит однозначно. Соотвественно, если делали прогон по каталогам ссылок или размещали в Liex сгенеренные статьи -- ждите отвала бэков. Прошу обратить внимание, что сейчас Яндекс намного лояльнее относится к полному копипасту с ссылкой на источник (при этом по-видимому ссылки в <noindex> Яндексом также считаются), чем к синонимимайзингу. Исходя из указанных выше соображений был составлен список клиентских сайтов, которые являются кандидатами на вылет с примерной вероятностью вылета, и вероятность отпадения бэков со сгенеренных статей. В течение 2 Апов прогноз сбывается с удивительной точностью. Вот собственно все. Рекомендаций давать не буду, каждый выработает их для себя сам с учетом вышесказанного. |
+1!
П.1, 2. - "абсолютно сапоги"! Добавлю ИМХУ, только к 3 пункту. Борьба Я идет не с ВМ и сайтами как таковыми, нарушающими лицензию), а с собственными перегрузками мощностей, поэтому выкидывется все лишнее (по мнению Я) и чрезмерно грузящее робота, анализатора, системы хранения информации. А т.к. перегруз похоже нихилый, то и кретерии специально очень загрублены, поэтому вылетает то, что раньше стабильно сидело, либо вообще нормальные ресурсы. |
Цитата:
|
aship, спасибо хотябы за то что не поленились это все проанализировать и нам написать.
Ну а так ли оно действительно пока никто не знает, хотя похоже на правду. У меня вылетели сайты без проблем с доступом робота, продающие по одной ссылке со страницы (ну на морде 3). Правда на некоторых есть блоки типа "Похожие статьи". |
aship, мне не подходит все вышесказанное. Ссылки по схеме 4-2-1 (у конкурентного сайта, стабильно сиджящего в индексе - 20-10-10. Линки на первоисточник имеются. С навигацией проблем нет, потому как движок самописный и ничего лишнего не ставится. Короче, не то это.
Цитата:
|
Цитата:
ну и эти "всякие сео паки" не всегда ставят абы лишь бы. Например на джумле управление тайтлами и урл без сторонних компонентов невозможно |
Цитата:
ИМХО яндекс как раз и банит такие сайты все вылизанные под сео... |
Анализ не плохой.
Есть две неувязки, с моей точки зрения: 1. Борьба и серпом по ... - это не одно и тоже. 2. Имеется отсев по двум разным алгоритмам, один из которых ведёт в баню* (даже без внешних), второй - к наложению фильтра** 10 страниц. Таким образом, не оспаривая ни единого пункта ТС прихожу к противоположному выводу: - борьба с продажными ссылками имеется, вне зависимости от их качества. * Отсев МФС ** сигнал - снимай САПУ |
Притом, заметьте господа, вылетают только ухоженные с точки зрения СЕО сайты.
Правильный линкообмен. Правильная перелинковка и т.п. + продажные ссылки = БАН По моему, с точки зрения ПС - если бы каждый бы из Вас был бы поисковой системой, которая так или иначе борется с продажностью манипуляторов её выдачи - сделали бы также. |
Благодарствую за выводы. Точнее, что поделился ими.
|
Часовой пояс GMT +3, время: 19:33. |
Работает на vBulletin® версия 3.8.7.
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Перевод: zCarot
SAPE.RU — система купли-продажи ссылок с главных и внутренних страниц сайтов.