Когда в сеопульте сделают следующие ОЧЕНЬ ВАЖНЫЕ вещи:
1. Наличие функции редакции запроса, т.к. клиенты меняют свои желания и хотят продвинуть практически тот же запрос, только немного изменившийся, банальный пример:
"купить слона" на "купить слона сегодня"
почему мы не можем сохранить и перевести, уже купленные два или три года назад ссылки, на новый похожий запрос, а должны их, тупо, удалить и делать новый запрос и закупать на него новые ссылки, которые заново будут расти?
2. Почему мы не можем фиксировать закуп ссылок ?
Пример: у меня сотня запросов. Хочу начать закупать ссылки на все сразу, но сайт еще слабый и надо по чуть-чуть ссылок на все страницы. Нет - сеопульт забахает все сразу за пару дней. Когда это функция будет ?
3. Когда я могу увидеть сколько всего у меня на ВСЕ запросы куплено ссылок, еще раз повторю - НА ВСЕ запросы сразу. Как мне понять какую ссылочную массу дает мне сеопульт, как выгрузить все и пробить в язле и т.д. Вообщем неважно для чего, но... все системы позволяют сделать экспорт. Сеопульт - нет.
а как же пробив запроса в вордстате таким образом:
"купить юбку"
разве это не даст точную частоту по яндексу. ??
Прочитал весь топик - не понял смысла обсуждения.
1. Посмотреть откуда трафик ? возможно к вам люди заходят по запросу "красная шапочка"
2. Как вы продвинете что-то, если у вас реклама продается - это ГС.
МОжно на "Ты"
КОнечно видел, Kost, но все-равно это неудобно. Я пробовал работать с этими данными.
Вообщем объективно нужно сайт весь целиком промуштровать. Мало ли где слеши на конце повылезли или мусор какой. Разложить все по полкам. Да и понять можно, что еще не проиндексировалось, зная свой сайт "от" и "до" и разбираясь в excel.
Причем это уже второй апдейт, когда кол-во страниц попросту не могло быть таким.
Привет Kost. было 760, сегодня стало 960. Так быть не могло, ибо точно знаем кол-во своих страниц. ПОтому нужно проверить. Т.к. я хорошо владею excel, то мне нетрудно будет все это дело отфильтровать и понять, что за новые страницы попали в индекс.
Норм объяснил ?
Сделал быстро и качественно - сайты очень хорошие в прайсе. Смотрим индексацию :)
Заказал прогон, оплачу завтра, буду ждать отчета
исключил ?
исключает всегда - обязательно.
Робот txt один из главных документов, который влияет на робота ПС, он разрешает или что-то запрещает и робот обязательно следует этим условиям, если:
1. Все верно прописано (ошибки можно проверить в вебмастере - где-то запятая не там или двоеточие или пробела не хватает)
2. Робот тхт не больше определенного размера - читаем я.хелп
в данном случае редиректы не нужны. проверено на практике.
грамотно делают
/public.html - ставьте в Disallow: скорее в роботе.тхт (или со слешем на конце, что вы там продвигаете)
хотя у вас уже уже позиции упали в любом случае из-за этого - есть вероятность, что вернете быстро, если не медлить.
И так надо делать со всеми страницами, которые вы продвигаете, на которые они замутили такие дубли.
Надеюсь все норм объяснил.