Ссылающихся сайтов: 942, внешних ссылок (приблизительно): 1126
80 ->120
60 ->90
80 ->100
90 ->150 сайту 10 месяцев
10 ->70 сайту 4 месяца
0 ->0
Вот не понимаю я этот Яндекс. Есть сайт http://www.makisalon.ru/. До ноября 2012г. раскручивался с помощью seopult. Посещения были 600 чел/сутки, потом сайт рухнул и посещения упали до 200 (видимо попал под какой-то фильтр из-за массовой безконтрольной покупки ссылок). С ноября 2012 по Июнь 2013 было закуплено множество контекстных ссылок, закуплено много статей, так же закупались ссылки в sape, так же сайт имеет и естественные ссылки. На самом сайте от поисковиков было спрятано больше 1000 страниц без контента, а так же дублей страниц. На сайте было размещено более 100 уникальных статей, на платной основе был зарегистрирован в ЯК. И все это время посещаемость не росла, ТИЦ как был 0, так и остался. В Июне забросили сайт, т.е. ссылки sape слетели, остались только естественные ссылки, вечные статьи и вечные контекстные ссылки (что тоже выглядит естественным). Роста посещаемости я конечно не ждал, но ТИЦ думал должен поднятся хотя бы до 10. Ан нет, как был 0, так и остался. Что же ему еще то надо?
Для сравния в прошлом ноябре начал раскручивать новый сайт такой же тематики, на данный момент ТИЦ = 150
Следовательно, в моем случае на страницах, которые нужно запретить к индексации, надо прописать метатег <META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW">?
Да, Вы правы, а я думал, что это реализовывается за счет robots.txt
Странно, на сайте hausemafia.ru в панели администрирования можно скрыть от индексации любую страницу. Строки со скрытыми страницами удаляются из файла http://hausemafia.ru/sitemap.223832.xml.gz и со временем перестают индексироваться поисковиками. Как тогда реализуются запреты страниц на данном примере?
Вы видимо меня не правильно понимаете, я не прошу искать страницы, которые я не закрыл. Дело в том, что на сайте тысячи страниц, которые надо запретить от индексации. Изначально эти страницы находились в robots.txt, но он был очень большим и поисковики его не обрабатывали, поэтому решили пойти обратным путем, запретить к индексации весь сайт, кроме страниц находящихся в sitemap. Вопрос как запретить полностью весь сайт к индексации, кроме файла sitemap.
Как мне кажется правильный вариант реализован здесь: http://hausemafia.ru/robots.txt
В sitemap представлены страницы необходимые для индексации
Нет, вопрос был правильно ли составлен robots.txt? Я хочу, чтобы робот индексировал только те страницы, которые находятся в sitemap.xml и никакие другие. Sitemap лопатить я не просил, вопрос правильно ли я прописал инструкцию для робота в robots.txt?
http://mood-good.com/skazat-spasibo.html
Урлы уже изменены на формат "http://www.makisalon.ru/service_info/taganskaya/33/, а на старых прописан редирект