NellSEO

NellSEO
Рейтинг
12
Регистрация
03.06.2017
Занимаюсь клиентским SEO с 2012 года. Могу и имею в аудит, внутреннюю и внешнюю оптимизацию сайта, создание верстки и натяжки, PHP-кода.
Enica:
Благодарю за рекомендации, но в данном слуае изначальный вопрос был немного о другом

нужно ли разбивать комментарии на страницы, допустим по 50 или 100 штук на каждой или это только ПОНИЗИТ релевантность страницы, если бы она была одной и ЕДИНОЙ, так как, сами понимаете, будет создано еще несколько страниц с одинаковым текстом поста и другой частью комментариев
Это вопрос первостепенный!

Общее качество (для поисковиков === релевантность в результатах выдачи) страницы = качественный контент + тематичные комментарии (опыт живых юзеров) + юзабилити сайта.

Соответственно:

1) Качественный контент мы в данном вопросе не рассматриваем;

2) Комментариев куча и это гуд (т.е. НЕТ, тематичные комментарии НЕ МОГУТ понизить релеватность страницы);

3) Удобство чтения комментов и ответа - а вот этот вопрос я предлагаю рассмотреть чуть внимательнее, чтобы понять суть. В случае, если у вас под статьей полотно текста на 300 комментов, создаются следующие проблемы для пользователей:

а) страница грузится неимоверно долго, ничего при этом не давая новому пользователю, который пришел в первую очередь за контентом статьи;

б) юзерам, которые хотят откомментировать, приходится дольше ждать и мотать страницу вниз до формы комментариев (если она выводится после всех уже написанных комментов) ЛИБО они не читают уже написанное и пишут по второму-третьему кругу (если форма выводится ДО комментов);

в) большая страница, как правило, способна спровоцировать торможение и даже вылет браузера --> растущее количество отказов.

Именно поэтому я написал, что для удобства юзеров желательно использовать AJAX-подгрузку. Ну и на первоначально поставленный вопрос ответ простой, продублирую еще раз:

НЕТ, тематичные комментарии НЕ МОГУТ понизить релеватность страницы.

Просто если можно сделать все лучше, надо делать лучше и удобнее, я считаю.

---------- Добавлено 04.06.2017 в 21:34 ----------

P.S. Еще раз перечитал то, как вы сформулировали вопрос.

НЕТ, не нужно бить комменты на отдельные индексируемые страницы, т.к. это повлечет за собой появление в индексе частичных дублей контента.

Чтобы понять, откуда и как просел трафик, нужно больше исходных данных:

1) Откуда он шел и на какие запросы;

2) Есть ли СЯ и отслеживаются ли позиции;

3) Какие изменения вносились за указанный период и за пару месяцев до него.

А также нужно знать, с чего вы взяли, что сайт с 8 страницами может нормально ранжироваться в поиске?

Для регионального ранжирования:

1) создайте страничку с контактами, где напишите города и адреса офисов

2) добавьте все нужные регионы в вебмастере (в частности, у Яндекса с этим проблем нет, у Google смотрите инструмент Мой бизнес, вроде тоже все было ок);

3) привяжите организацию в Справочнике и в Моем бизнесе;

4) только после этого выводите в футере ссылки. Хотя если они на ценообразование не влияют, толку именно от этого действия будет достаточно мало.

Задача поисковой системы - дать пользователю наиболее релевантный ответ на заданный запрос. Как уже сказали выше,

Ingref:
пишите статьи не просто про молотый кофе, а про разные аспекты, и ссылайтесь на основную большую статью про молотый кофе.

Если вы делаете блог без учета особенностей поисковых машин, трафик будет соответствующим. Поэтому писать несколько статей под один и тот же запрос - мешает продвижению ключевого слова по одной простой причине: будет постоянно прыгать релевантная страница: то одна в индексе, то другая.

В вашем случае я бы собрал полное СЯ по молотому кофе, выбрал бы одну страницу и максимально полно раскрыл бы все основные аспекты, интересующие пользователя, на ней одной. Контент остальных страниц частично использовал бы на целевом документе, а частично - переправил бы под нужные вам ключевые запросы (под оставшуюся в семантике низкочастотку и не вместившиеся в список ключей первой страницы запросы). Сделал бы перелинковку. --->> Получил бы сильно больше топовых позиций.

livetv:
1. Корректно, они же в гвт показаны как "404 ошибка".

Через пару месяцев должны вывалиться. Если нет, напишите на форум поддержки.

livetv:
2. 301 редирект тоже не помагает, робот страницы продолжает дергать и в гвт показывает ошыбки "404 софт"

Скорее всего, просто медленно обновляется индекс. После установки 301 редиректа в гвт должны появиться соответствующие данные.

livetv:
3. Маршруты правильные. Ошибка именно из-за удаления некоторых страниц. Другие страницы в той же папке рабочие.

По этим данным - почти наверняка медленный индекс.

---------- Добавлено 03.06.2017 в 18:09 ----------

P.S. Наконец, проверьте, не стоит ли где на вашем же сайте ссылка на данные страницы. Особенно критичны меню и "сквозняки".

Zuzik_epte:

Сайт платформенный, я не могу править код

Отсюда все ваши беды. Хотите полного контроля над сайтом? Делайте парсинг текущего, переводите на свой движок, добавляйте добавочную ценность (+ к той, что вам дает платформа). В противном случае - сайт == минидорвей на копипасте. И да, как вам сказали выше, копипаст тоже нужно уметь готовить.

Поисковики ответят вам, что нужно склеивать.

Простейший путь - лить с ФБ на домен-прокладку.

Вытащите из известного сервиса всю доступную семантику и проанализируйте на предмет точного совпадения. Ну и классика: на позиции сайта могут влиять

а) его возраст;

б) общий траст;

в) качество, количество и проработка контента.

Также то, что для вас

ToXa_911:

юзабилити "интересуемого" сайта на уровне "хлам", ну по крайней мере отстало где-то на 3-4 года минимум ...

совсем не значит, что для его пользователей также.

Наконец, вы можете не знать все источники его трафика (контекст, баннеры, социалки) --> т.е. то, на чем держатся ПФ сайта.

Смотрите статьи на

а) уникальность

б) читаемость (отсутствие грамматических, фактологических, других ошибок)

в) оформление (для статейника - блоки внимания, видео, выделение, в общем проработка текста)

г) фактологию (либо посмотрите на поведение юзеров с использованием инструментов - я бы начал с анализа метрики или другого счетчика на процент отказов и изучение типовой карты кликов).

Смотрите семантику, не копирует ли она полностью другой существующий проект. Сделать это крайне просто при помощи того же KeyAssort или TopSite (если надо, пишите в ЛС).

Наконец, смотрите весь сайт на предмет качественной перелинковки (не вся она должна быть анкорной) и на добавочную ценность (тесты, калькуляторы, что там еще можно придумать по вашей тематике). Исправляйте все пачкой и только после этого жмите заветную кнопку.

Проверьте, корректно ли сервер отдает 404 на несуществующих страницах. Обычно после 5-10 заходов максимум робот перестает посещать даже страницу, куда ведет ссылка.

Также рекомендую отследить список несуществующих адресов, куда постоянно ломятся роботы, и если поток запросов не прекращается, сделать 301 на произвольный вариант, вплоть до главной. В любом случае, 404 в индекс никак не зайдет --> нечего антипинговать.

Ну и наконец, посмотрите внимательно движок и его роуты, скорее всего проблема где-то на вашей стороне.

Всего: 130