sirkp

Рейтинг
16
Регистрация
10.02.2014
Anibrut:
Я проверяла Netpeak Spider, показывало что та страница закрыта. А вот этот скриншот, это чем вы проверили?

https://webmaster.yandex.ru/robots.xml

Anibrut:
sirkp,
Вот думаю
Закрыла я в robots.txt все что после /propos/, удалю из сайтмап такие страницы, и еще и 301 напишут что бы все что /propos/xyz на /propos/ кидало. Это не слишком, или так и должно быть, полный комплект так сказать)?.

Кстати попробовала
Disallow: /propos/*
Allow: /propos/$ и Allow: /propos/ и Allow: /propos$ - все ровно /propos/ тоже закрывает. (((

Вообще и редиректа бы хватило, но и остальное не навредит.

Странно, потому как у меня все корректно:

Аналогичная проблема. Спад обычно происходит через пару недель. Пробовал разные стратегии, ставки, переписывать объявления, менять картинки. Помогает только перезаливка кампании.

xxhy:
Прогонял через какие то сервисы, которые мне говорили мол 300 ссылок в яндексе, 500 в гугле, бла, бла, бла.
Сам сайт
Вбиваю в яндексе: slon.info, выдает 4 ссылки, одна из них главная страница, остальное какой-то треш, включая страницу которую я вообще закрывал от идексации. вбиваю ссылку с какой нибудь статьей, большой, хорошей, прогонял через детекторы копипаста, 100 процентов уникальности, бла, бла, бла. Вообще не ищет. Прогонял поиски по ключевым словам, вообще 0 индекса.
Гугл выдает чуть больше, около 10 ссылок, но опять же какой-то трешак, ни одной свежей (сегодня утренней) статьи, мозг уже кипит.
Что ставь сео плагины, что удаляй, что ставь другие, что бы не делал, НОЛЬ индексации. Только треш, который был написан несколько месяцев назад.
В чем дело то? Что им не нравиться? 😡

Есть несколько рубрик на сайте, индексируется только ОДНА, в которой просто адреса и даты выставок, грубо говоря по символов 50 символов статья....

Потому что у Вас на сайте не бывает быстроробота. Вот так Яндекс видит главную http://hghltd.yandex.net/yandbtm?fmode=inject&url=http%3A%2F%2Fslon.info%2F&tld=ru&lang=ru&la=1437415680&text=slon.info&l10n=ru&mime=html&sign=460407359617bccb003d7569c376af7e&keyno=0.

Для того, чтобы у Вас на сайте поселился быстроробот контента должно быть значительно больше, должны мелькать ссылки в соцсетях на материалы, должна быть посещаемость.

Anibrut:
Подскажите пожалуйста, есть немного лишних url разного типа проблемности, думаю как лучше исправить ситуацию.
Вот они:
1)
http://site.com/propos/xxxx
http://site.com/propos/yyyy
http://site.com/propos/zzzz
Их порядка 15-ти.
Все они открываются, но показывают содержимое только http://site.com/propos, под их адресами никаких страниц не предусмотрено. То есть, эти url не нужно показывать а только http://site.com/propos.
Думаю закрыть в роботс так: Disallow: /propos/*
У кого какие варианты?

Еще нужно забрать страницы у которых /ru дубли страниц
Оригинал http://site.com/xyz/xy
Дубль http://site.com/ru/xyz/xy
думаю */ru/*
Правильно ли так?

И еще есть страницы дубли со слешем вконце.
Как их то закрыть?

1. Так попробуйте, должно сработать

Disallow: /propos/*

Allow: /propos/$

2. Директива Disallow: */ru/* закроет все дубли

3. в роботсе никак, делайте общий 301й редирект

emtecif:
как правильно это сделать?)

Например так:

Redirect 301 /page/1 http://site.com/

Считается.

Если страница не нужна - сделать 301й.

Если нужно оставить доступной для пользователей - закрыть в роботсе или сделать каноникал.

Склейте домены канониклом https://support.google.com/webmasters/answer/139066?hl=ru#1

Проверьте сезонность в вордстате. Возьмите несколько самых жирных запросов и посмотрите графики. Все станет понятно. Вот пример https://wordstat.yandex.ru/#!/history?words=%D0%BA%D1%83%D0%BF%D0%B8%D1%82%D1%8C%20%D1%81%D1%82%D1%80%D0%BE%D0%B9%D0%BC%D0%B0%D1%82%D0%B5%D1%80%D0%B8%D0%B0%D0%BB%D1%8B

У многих нормальных CMS есть встроенный генератор XML карты. На крайняк можно сделать с помощью Xenu (бесплатное ПО) или онлайн сервисом - их куча.

Всего: 42