Мой диагноз — частотность слов. Даже сейчас после переделок проблем, на которые вам указали, на главной по-прежнему 20 штук Финляндий.
Яша, похоже, пытается внедрить новый алгоритм определения качества текста. Видимо, не всё идет гладко, и поэтому он (о чудо!) вступает в диалоги.
Полностью согласна с предыдущим оратором.
Как я понимаю, вы хотите собрать статистику и понять, что вам могут предложить за 50$? Многие поленятся отвечать и картина всё равно не будет полной. Предложение всё-таки должно исходить от работодателя.
Если на фавике сосиска — то любой сайт получит -10, даже сайт по горячей доставке хотдогов. 😂
Вот, например, захожу я в раздел «Бюстгальтеры»: http://www.greenribbon.ru/shop/69/
Вижу товар и текст после него. Выбираю справа размер: http://www.greenribbon.ru/shop/69/?fsize=3C%20%20(75C)
Страницы разные? Разные (и, кстати, урлы не ЧПУ, а это не кошерно).У них один title: «Купить бюстгальтер Пуш Ап, Анжелика, Невидимку в интернет-магазине от брендов Milavitsa, Eldar, Aveline» и один общий текст-портянка. Различаются наборы товаров, но этого не достаточно. ПС этого очень не любят.
А так, кстати, сайт симпатичный и удобный. Так что с поведенчискими у вас, как мне кажется, всё нормально должно быть.
Структура сайта «оставляет желать». У вас куча дублированного контента, в том числе страницы с одинаковыми title. Это вряд ли повлияло на проседание именно сейчас, но вообще это плохо.
В основном индексе гугла из кучи страниц сайта находятся только 79(!), довольно мусорная картина.
Если текста много, а выделения использовать аккуратно и к месту — то, по моим наблюдениям, будет в плюс. Проблема в том, что если текста мало и вдруг вляпан какой-нибудь стронг — то это уже перебор. С малым текстом я бы не ставила.
Это не исключение, а результат суммарного влияния различных факторов на ранжирование. Мы же не знаем, сколько там потрачено денег на внешнее ссылочное, и какие там поведенческие факторы.
А если появится такой же молодец, но еще и с правильным семантическим ядром, то он его вытеснит. Обычная математика.
Я к тому, что среди всего говноконтента поисковики уже умеют, по меньшей мере, помечать поверхностный рерайт как неуник.
ТС просила подсказать синонимайзер, чтобы генерить уникальный текст. А я говорю, что он по факту уникальным не будет.
Нет, за то, что ключевые слова, заявленные в title страницы, не являются главным содержанием.
Да, но плохой рерайт за уник уже не считают. Алгоритм известен: выделяются все слова, несущие смысловую нагрузку, подставляются все возможные синонимы, из них составляются варианты предложений и уже этот массив проверяется на уник.
Так что без перестройки предложений ничего не выйдет.