Иван

Иван
Рейтинг
125
Регистрация
20.11.2009
Интересы
Seo

Когда в сеопульте сделают следующие ОЧЕНЬ ВАЖНЫЕ вещи:

1. Наличие функции редакции запроса, т.к. клиенты меняют свои желания и хотят продвинуть практически тот же запрос, только немного изменившийся, банальный пример:

"купить слона" на "купить слона сегодня"

почему мы не можем сохранить и перевести, уже купленные два или три года назад ссылки, на новый похожий запрос, а должны их, тупо, удалить и делать новый запрос и закупать на него новые ссылки, которые заново будут расти?

2. Почему мы не можем фиксировать закуп ссылок ?

Пример: у меня сотня запросов. Хочу начать закупать ссылки на все сразу, но сайт еще слабый и надо по чуть-чуть ссылок на все страницы. Нет - сеопульт забахает все сразу за пару дней. Когда это функция будет ?

3. Когда я могу увидеть сколько всего у меня на ВСЕ запросы куплено ссылок, еще раз повторю - НА ВСЕ запросы сразу. Как мне понять какую ссылочную массу дает мне сеопульт, как выгрузить все и пробить в язле и т.д. Вообщем неважно для чего, но... все системы позволяют сделать экспорт. Сеопульт - нет.

а как же пробив запроса в вордстате таким образом:

"купить юбку"

разве это не даст точную частоту по яндексу. ??

seo_master33:
Добрый день!


Есть у меня сайт http://www.taxi-ladya.ru/, раскручивается по запросам такси, заказ такси, вызов такси

и по всем отказы около 50 процентов, подскажите почему так может быть? что на сайте не так.

Жду ответа:)

Прочитал весь топик - не понял смысла обсуждения.

1. Посмотреть откуда трафик ? возможно к вам люди заходят по запросу "красная шапочка"

2. Как вы продвинете что-то, если у вас реклама продается - это ГС.

Kost:
А вы видели функцию
"Страницы в поиске" - "Показать:" - "за последнюю неделю"
"за последние 2 недели"
"за весь период"

Вроде как-то работает.

МОжно на "Ты"

КОнечно видел, Kost, но все-равно это неудобно. Я пробовал работать с этими данными.

Вообщем объективно нужно сайт весь целиком промуштровать. Мало ли где слеши на конце повылезли или мусор какой. Разложить все по полкам. Да и понять можно, что еще не проиндексировалось, зная свой сайт "от" и "до" и разбираясь в excel.

Причем это уже второй апдейт, когда кол-во страниц попросту не могло быть таким.

Kost:
Это сколько?
И что потом будет с этим отчетом?

Привет Kost. было 760, сегодня стало 960. Так быть не могло, ибо точно знаем кол-во своих страниц. ПОтому нужно проверить. Т.к. я хорошо владею excel, то мне нетрудно будет все это дело отфильтровать и понять, что за новые страницы попали в индекс.

Норм объяснил ?

Сделал быстро и качественно - сайты очень хорошие в прайсе. Смотрим индексацию :)

Заказал прогон, оплачу завтра, буду ждать отчета

ilyas87:
А webmaster.yandex.ru исключил лишние страницы?

исключил ?

исключает всегда - обязательно.

vlasoff:
Завершающие слеши конечно разруливать нужно, я делаю это на сервере, смотрю последний элемент адреса, если в нём есть точка (файл) и есть завершающий слеш - 301 редирект на этот адрес без слеша, если точки нет и нет завершающего слеша - 301 редирект на адрес со слешем

А вообще, не думаю что ПСы уберут из индекса старницы, на которые собственно и стоят ссылки на самом сайте, и заменят их теми, на которые есть сылки со сторонних сайтов, и тем более, если вообще никаких ссылок нет, или же наложат на сайт санкции за дубли.

Робот txt один из главных документов, который влияет на робота ПС, он разрешает или что-то запрещает и робот обязательно следует этим условиям, если:

1. Все верно прописано (ошибки можно проверить в вебмастере - где-то запятая не там или двоеточие или пробела не хватает)

2. Робот тхт не больше определенного размера - читаем я.хелп

в данном случае редиректы не нужны. проверено на практике.

leshandy:
После последнего апа проиндексировались странные страницы: страницы корзины, причем с конкретными параметрами. При том, что попасть на эту страницу можно только после добавления товара (POST через форму).
Проверил сайт нигде ссылок нет, как такое могло произойти?
И еще появились дубли страниц: "/public.html" и "/public.html/"

грамотно делают

/public.html - ставьте в Disallow: скорее в роботе.тхт (или со слешем на конце, что вы там продвигаете)

хотя у вас уже уже позиции упали в любом случае из-за этого - есть вероятность, что вернете быстро, если не медлить.

И так надо делать со всеми страницами, которые вы продвигаете, на которые они замутили такие дубли.

Надеюсь все норм объяснил.

Всего: 375