Serebro2009

Рейтинг
5
Регистрация
03.04.2016
богоносец:
А может проблема в том, что ваш сервак отвечает 200 на всё?

Да я понимаю что проблема в хостере...но как быть?)

Jaf4:
при переходе на несуществующую страницу какой код отдает сервер?

Страница доступна в яндексе стоит - 200

---------- Добавлено 04.08.2016 в 23:22 ----------

что за ерунда - еще три тысячи страниц в индекс добавились

---------- Добавлено 04.08.2016 в 23:28 ----------

Структура сайта стала:

Не понимаю принципа по которому происходит ранжирование. Есть НЧ запрос, выдается в СЕРП однотипные сайты с копипастом. Как так-то? Страница с уникальным контентом вообще на 10 странице выдаче. Пишу платону, Привожу пример...Ответ:

Если сайт сейчас нельзя найти в выдаче по указанным запросам, то это означает, что он по совокупной релевантности не обошёл другие страницы в результатах поиска по этим запросам.

Мне очень жаль давать только такой совет, но улучшить видимость сайта в сложившейся ситуации можно лишь продолжением работы над ним.

просто не понятно, каким образом страница с двумя предложениями, будет полезней для человека, чем страница с развернутыми характеристиками

Извиняюсь, вижу, скопировал с файла не верно

Я что-то вас не понимаю, третий раз говорю у меня ОДИН блок в robots.txt с правилами для всех поисковых роботов. Где я указывал что у меня ДВА БЛОКА? Откуда вы это взяли?

vetiver:
я понимаю, но у вас обе части для всех поисковиков-.User-agent: *. и в каждой разные инструкции..
сделайте один роботс для всех с теми инструкциями которые вам нужны.. например , как показали выше - sPoul

там есть все что вам нужно.. и запреты и сайтмап и хост..и указан User-agent - для всех, а если хотите каждому поисковику дать разные инструкции, то указывайте конкретный User-agent.- например Yandex итд

У меня один роботс для всех)

sPoul:
Что мешает сделать этот файл все таки по человечески? Например, так:

User-agent: *
Disallow: /administrator/
Disallow: /bin/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /layouts/
Disallow: /libraries/
Disallow: /logs/
Disallow: /modules/
Disallow: /plugins/
Disallow: /tmp/
Disallow: /noindex/
Crawl-delay: 4
Host: wwww.su

Sitemap: http://www.wwww.su/sitemap.xml


И почему в Host и Sitemap директивах разные поддомены указаны? И интересно, что тогда в сайтмапе отдается, с www или без.

Откуда вы взяли, что "задержку" и главное зеркало нужно ставить после блока Disallow? Сайт-мэп отдается с www...я все равно делаю редирект в .htaccess

---------- Добавлено 12.06.2016 в 12:56 ----------

vetiver:
<meta name="robots" content="noindex, nofollow">
не?

---------- Добавлено 12.06.2016 в 12:08 ----------



у вас обе части роботс составлены для всех поисковиков?(User-agent: * )может какая то для одного, какаято для другого??

это полный текст файла

Алеандр:
Либо он попал туда "до" того как вы закрыли в robots, либо ваш robots составлен некорректно.
Либо у вас составной документ и такой подход не применим.

<noindex> должен помочь. Еще бы гугл его не игнорировал.

Нет, я что-то не думаю, что я где-то мог ошибиться.

User-agent: *

Disallow:

Crawl-delay: 4

Host: wwww.su

Sitemap: http://www.wwww.su/sitemap.xml

User-agent: *

Disallow: /administrator/

Disallow: /bin/

Disallow: /cache/

Disallow: /cli/

Disallow: /components/

Disallow: /includes/

Disallow: /installation/

Disallow: /language/

Disallow: /layouts/

Disallow: /libraries/

Disallow: /logs/

Disallow: /modules/

Disallow: /plugins/

Disallow: /tmp/

Disallow: /noindex/

Документы находятся в папке noindex, в вебмастере пишет что данный документ исключен из выдачи, но...

Алеандр:
Что мешает форму загнать в <noindex></noindex> ?

Думайте это поможет? У меня документ закрыт от индексации в файле robots...но почему-то он все равно присутствует в выдаче

И быстрые ссылки пропали(

Всего: 41