Magic Moment

Magic Moment
Рейтинг
67
Регистрация
23.08.2015
Интересы
SEO

может быть у вас дубликаты страниц? надо смотреть что за страница. Если про запросе info:site.ru/page.html выводит страничку сортировки или пагинации, то нужно на всех таких страничках поставить noindex, follow и настроить с такой страницы 301 на ту, которая должна ранжироваться. В роботсе такие странички закрывать не нужно.

Смотря какие фильтры вы имеете ввиду.

Надо знать от чего отталкиваться.

Если вы "отдолжили тексты" у других сайтов, или их вовсе нет, или они очень маленькие/переспамленные, то скорее всего будете под пандой.

Если подкупали ссылки/участвовали в линкопомойках, и занимались другими серыми/грязными делами, что связаны с ссылками, то будете под пингвином.

Попробуйте поискать по кускам текста (до 180 симв), если текст не ищется, то тот же текст в кавычках. Обязательно перед этим проверяйте наличие страницы в индексе командой site:site.ru/page1.html

Поищите текст с "title" таким же образом.

А там уже делайте выводы.

Ок, спасибо всем

BooblikBBW:
Allow: / - не общепринятая.
Обычно пишут Disallow:

а если просто будет написано "Allow: / "

Закроет ли этот оператор сайт от индексации?

Гугл плохо относиться к сгенерированному контенту.

Цитата из Google starter guide:☝

Качественный и конкурентоспособный контент – это то,что способно повлиять на позиции вашего сайта гораздосильнее чем все вышеописанные факторы. Пользователи знают толк в качественных сайтах, и могут рекомендовать понравившийся сайт другим пользователям в блогах, форумах, социальных сетях, электронных письмах. Естественная реклама и рекомендации от одного пользователя к другому повышают репутацию вашего сайта как среди пользователей, так и поисковых машин. Добиться этого эффекта без качественного контента невозможно.

Что за сайт у вас?

Пробовали проанализировать ссылочную массу?

Согласен, снимать нужно постепенно, чтобы это выглядело как можно естественнее. На сапе ссылки сами должны начать отваливаться. Можете сходу снять сапешные ссылки, которые еще не успели попасть в индекс. Эффекта от этого не будет, зато меньше себе работы обеспечите. Как проверять наличие сапешных ссылок в индексе я думаю рассказывать не стоит:)

Хочу к вышеизложенному добавить, что если закрыты эти дерриктории, G не может полностью проанализировать страницу на наличие, к примеру, скрытого от пользователя текста (что может быть под спойлером реализованном на js и т.д.). Этот текст в свою очередь может быть средствами css "замаскирован" под фон страницы и т.д. Поэтому, G хочет "читать" JS и СSS чтобы более точно проранжировать страницу.

Всего: 308