Valorous

Рейтинг
55
Регистрация
26.01.2011
Andrey898989:
Если не секрет сколько ссылок по ВМ ?

Ссылающихся сайтов: 942, внешних ссылок (приблизительно): 1126

80 ->120

60 ->90

80 ->100

90 ->150 сайту 10 месяцев

10 ->70 сайту 4 месяца

0 ->0

Вот не понимаю я этот Яндекс. Есть сайт http://www.makisalon.ru/. До ноября 2012г. раскручивался с помощью seopult. Посещения были 600 чел/сутки, потом сайт рухнул и посещения упали до 200 (видимо попал под какой-то фильтр из-за массовой безконтрольной покупки ссылок). С ноября 2012 по Июнь 2013 было закуплено множество контекстных ссылок, закуплено много статей, так же закупались ссылки в sape, так же сайт имеет и естественные ссылки. На самом сайте от поисковиков было спрятано больше 1000 страниц без контента, а так же дублей страниц. На сайте было размещено более 100 уникальных статей, на платной основе был зарегистрирован в ЯК. И все это время посещаемость не росла, ТИЦ как был 0, так и остался. В Июне забросили сайт, т.е. ссылки sape слетели, остались только естественные ссылки, вечные статьи и вечные контекстные ссылки (что тоже выглядит естественным). Роста посещаемости я конечно не ждал, но ТИЦ думал должен поднятся хотя бы до 10. Ан нет, как был 0, так и остался. Что же ему еще то надо?

Для сравния в прошлом ноябре начал раскручивать новый сайт такой же тематики, на данный момент ТИЦ = 150

Следовательно, в моем случае на страницах, которые нужно запретить к индексации, надо прописать метатег <META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW">?

kimberlit:
Не смотрел, но там, наверное, мета-теги.

Да, Вы правы, а я думал, что это реализовывается за счет robots.txt

siv1987:

Угу, что означает - разрешить все к индексации.

Странно, на сайте hausemafia.ru в панели администрирования можно скрыть от индексации любую страницу. Строки со скрытыми страницами удаляются из файла http://hausemafia.ru/sitemap.223832.xml.gz и со временем перестают индексироваться поисковиками. Как тогда реализуются запреты страниц на данном примере?

Russian Traveller:
и? отвечу вам этим постом

Вы видимо меня не правильно понимаете, я не прошу искать страницы, которые я не закрыл. Дело в том, что на сайте тысячи страниц, которые надо запретить от индексации. Изначально эти страницы находились в robots.txt, но он был очень большим и поисковики его не обрабатывали, поэтому решили пойти обратным путем, запретить к индексации весь сайт, кроме страниц находящихся в sitemap. Вопрос как запретить полностью весь сайт к индексации, кроме файла sitemap.

Как мне кажется правильный вариант реализован здесь: http://hausemafia.ru/robots.txt

Russian Traveller:
чтобы запретить все страницы, кроме тех, которые в sitemap.xml нужно сначала ознакомиться с тем, какие все-таки там страницы представлены.

В sitemap представлены страницы необходимые для индексации

Нет, вопрос был правильно ли составлен robots.txt? Я хочу, чтобы робот индексировал только те страницы, которые находятся в sitemap.xml и никакие другие. Sitemap лопатить я не просил, вопрос правильно ли я прописал инструкцию для робота в robots.txt?

Урлы уже изменены на формат "http://www.makisalon.ru/service_info/taganskaya/33/, а на старых прописан редирект

123
Всего: 25