Форум SAPE.RU

Форум SAPE.RU (http://forum.sape.ru/index.php)
-   Яндекс (http://forum.sape.ru/forumdisplay.php?f=16)
-   -   О возможных причина последних вылетов (http://forum.sape.ru/showthread.php?t=38608)

aship 26.09.2009 12:41

О возможных причина последних вылетов
 
По результатам тщательного анализа более чем 100 своих и клиентских сайтов у меня возникло ощущение, что я прочуял алгоритм вылета. Была проведена кое-какая работа с привлечением специалистов узкого профиля для формализации прочувстванного алгоритма.

Некоторое время назад на основе прочувстванного алгоритма составил прогноз вылета-возврата в последующие апы. На протяжении двух апов, 24-го и 26-го, прогноз удивительным образом сбылся, так что прочуял я алгоритм видимо примерно-верно.

Некоторые рекомендации на основе прочувствованного.

1. Борьбы с ссылками, как таковыми, очевидно нет. По-прежнему есть борьба с плохими ссылками и с зарвавшимися вебмастерами, продающими ссылки сверх всякой меры и без контроля. Я бы даже сказал так, Яндекс перешел от борьбы с самими продажными ссылками, к борьбе за качество продажных ссылок.

2. Сами по себе продажные ссылки качественному сайту не вредят, но вот если у сайта есть определенные проблемы с точки зрения поисковки, то начиная где-то с августа наличие ссылок стало существенно более сильным "ухудшающим фактором" для таких проблемных сайтов.
Иными словами совсем качественный сайт с ссылками и не очень качественный, проблемный сайт без ссылок могут по прежнему спать спокойно. А вот наличие ссылок на сайте, который уже сам по себе "проблемный" с точки зрения поисковки, теперь стало заметно сильнее делать сайт проблемным.

3. Теперь что такое "проблемный" сайт в контексте вышесказанного. Таких показателей "не очень высокого качества" для качественных с нашей точки зрения СДЛ и MFS видимо три.

а) Технические проблемы с доступом робота к сайту, ошибки в коде или (Внимание, это очень важно!) запутанная навигация. Есть ощущение что вес запутанной навигации в определении "проблемности сайта" заметно вырос. Если у вас вылететел гарантировано качественный СДЛ со 100% ценными уникальными текстами - ищите лишние внутренние перелинковки и лишние, ненужные блоки навигации.

б) Наличие на сайте большого числа частично дублирующегося контента (дублирующегося в рамках самого сайта), а также наличие большого количества URI, содержимое которых необоснованно часто частично или полностью обновляется. Это могут быть например в первом случае текст статьи с комментариями и без комментарием, если они доступны по разным адресам. Во-втором -- наличие каких-то блоков (типа "похожие статьи", "читайте по теме") которые меняются при каждом заходе робота.

в) Наличие большого количества неуника, в том числе и синонимизированного. Качество определения Яндексом синоминизированных дублей заметно возросло. Теперь, если меняя отдельные слова, вы оставляете между ними куски старого неизмененного текста, хотя бы всего по несколько слов -- Яндекс вас по этому признаку вычислит однозначно. Соотвественно, если делали прогон по каталогам ссылок или размещали в Liex сгенеренные статьи -- ждите отвала бэков.
Прошу обратить внимание, что сейчас Яндекс намного лояльнее относится к полному копипасту с ссылкой на источник (при этом по-видимому ссылки в <noindex> Яндексом также считаются), чем к синонимимайзингу.

Исходя из указанных выше соображений был составлен список клиентских сайтов, которые являются кандидатами на вылет с примерной вероятностью вылета, и вероятность отпадения бэков со сгенеренных статей. В течение 2 Апов прогноз сбывается с удивительной точностью.

Вот собственно все. Рекомендаций давать не буду, каждый выработает их для себя сам с учетом вышесказанного.

Maugli 26.09.2009 13:04

+1!
П.1, 2. - "абсолютно сапоги"!
Добавлю ИМХУ, только к 3 пункту.

Борьба Я идет не с ВМ и сайтами как таковыми, нарушающими лицензию), а с собственными перегрузками мощностей, поэтому выкидывется все лишнее (по мнению Я) и чрезмерно грузящее робота, анализатора, системы хранения информации.

А т.к. перегруз похоже нихилый, то и кретерии специально очень загрублены, поэтому вылетает то, что раньше стабильно сидело, либо вообще нормальные ресурсы.

Апокалипсис 26.09.2009 13:08

Цитата:

Сообщение от aship (Сообщение 574880)
б) Наличие на сайте большого числа частично дублирующегося контента (дублирующегося в рамках самого сайта), а также наличие большого количества URI, содержимое которых необоснованно часто частично или полностью обновляется.

Cогласен. У меня все знакомые "оптимизаторы" пичкают плагинами свои сайты, там супер сео пак и т.п - всё там перелинковано - я считаю это ведет только во вред ПС.

PlaDima 26.09.2009 13:14

aship, спасибо хотябы за то что не поленились это все проанализировать и нам написать.
Ну а так ли оно действительно пока никто не знает, хотя похоже на правду.

У меня вылетели сайты без проблем с доступом робота, продающие по одной ссылке со страницы (ну на морде 3). Правда на некоторых есть блоки типа "Похожие статьи".

Vetas 26.09.2009 13:15

aship, мне не подходит все вышесказанное. Ссылки по схеме 4-2-1 (у конкурентного сайта, стабильно сиджящего в индексе - 20-10-10. Линки на первоисточник имеются. С навигацией проблем нет, потому как движок самописный и ничего лишнего не ставится. Короче, не то это.

Цитата:

Сообщение от Maugli (Сообщение 574894)
Борьба Я идет не с ВМ и сайтами как таковыми, нарушающими лицензию), а с собственными перегрузками мощностей, поэтому выкидывется все лишнее (по мнению Я) и чрезмерно грузящее робота, анализатора, системы хранения информации.

Тоже нет, т. к. во-первых, сайты сидят на VDS, и со скоростью доступа проблем никаких. Во-вторых, движок, как я уже писал, самописный и минимально нагружает браузер, а, тем более, ботов. Ну и в-третьих, в таком случае бот не делал бы по несколько тысяч заходов на сайт (по крайней мере, в моем случае), который его "грузит".

WebFX 26.09.2009 13:16

Цитата:

Сообщение от Апокалипсис (Сообщение 574900)
пичкают плагинами свои сайты, там супер сео пак

а правильная перелинковка всё таки нужна.
ну и эти "всякие сео паки" не всегда ставят абы лишь бы. Например на джумле управление тайтлами и урл без сторонних компонентов невозможно

Апокалипсис 26.09.2009 13:21

Цитата:

Сообщение от WebFX (Сообщение 574919)
а правильная перелинковка всё таки нужна.

Не знаю, я не шарю в этих перелинковках, никогда не делаю ничего, всё тьфу тьфу держится стабильно годами. И траффик есть нужный. И тайтлы специальные не пишу.
ИМХО яндекс как раз и банит такие сайты все вылизанные под сео...

investory 26.09.2009 13:25

Анализ не плохой.
Есть две неувязки, с моей точки зрения:
1. Борьба и серпом по ... - это не одно и тоже.
2. Имеется отсев по двум разным алгоритмам, один из которых ведёт в баню* (даже без внешних), второй - к наложению фильтра** 10 страниц.

Таким образом, не оспаривая ни единого пункта ТС прихожу к противоположному выводу:
- борьба с продажными ссылками имеется, вне зависимости от их качества.

* Отсев МФС
** сигнал - снимай САПУ

Апокалипсис 26.09.2009 13:28

Притом, заметьте господа, вылетают только ухоженные с точки зрения СЕО сайты.

Правильный линкообмен. Правильная перелинковка и т.п. + продажные ссылки = БАН

По моему, с точки зрения ПС - если бы каждый бы из Вас был бы поисковой системой, которая так или иначе борется с продажностью манипуляторов её выдачи - сделали бы также.

calatilo 26.09.2009 13:31

Благодарствую за выводы. Точнее, что поделился ими.


Часовой пояс GMT +3, время: 17:29.

Работает на vBulletin® версия 3.8.7.
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Перевод: zCarot
SAPE.RU — система купли-продажи ссылок с главных и внутренних страниц сайтов.