Совершенно не в упрек будет сказано, а скорее даже в образовательных целях. :)
Частотность запроса и его конкурентность - имеют не прямолинейную связь, а порой даже никак не связаны. Я успел повидать запросы с космической частотностью - дающие много трафа, но при этом с достаточно низкой конкуренцией - пример, запрос "!драки" — 16527.. В свое время выводил его за 10 у.е. в месяц, имел траф с него каждый день 150-200 уников. Почему так получается, да просто запрос не коммерческий, спрашивают его в основной своей массе молодежь, которой руки некуда присунуть - аудитория с низкой покупательной способностью..
Обратный пример "!недвижимость !петербурга" - 417.. За этот запрос многие сумашедшие бабки вликают в продвижение, а по факту он дает дай бог 1-2 посетителя в сутки..
Поэтому классифицировать запросы нужно так, как это сделано в "руках" частотность + конкурентность..
P.S. Не зря кем-то было сказано, что 1000 посетителей в тематике "развлечений" - это ничто, а 100 посетителей в тематике "ноутбуки" - это уже что-то..
Хотел прояснить один момент.
Исходные данные таковы, у меня есть уже список запросов, скажем 100 или 200 - не важно, я их добавляю в программу вручную. Дальше я хочу узнать статистику Rambler Adstat. Выбираю месяц и нажимаю кнопку "сбор данных для имеющихся ключевых фраз"
Программа собирает - http://clip2net.com/s/PIwz
Она собирает то, что на картинке отмечено как 1, но мне нужно то, что отмечено как 2.
Вопрос, можно ли собирать как-то эти данные или это невозможно?
И еще хотел узнать, у вас есть где-нибудь что-то вроде виш-листа, где можно оставлять пожелания?
Спасибо за ответы!
В настройках на вкладках "Yandex Wordstat", "Rambler Adstat", "Подсказки", "Liveinternet" есть такой параметр как "глубина парсинга"
Подскажите по опыту пожалуйста, какое значение данного показателя для каждого из типов источников оптимально?
Оптимально - значит что данные собираются наиболее полно и время парсинга не устремляется в бесконечность.
Спасибо!
Устанавливаю в настройках "Rambler Adstat" -> "Парсить страниц = 50"
На каждой странице Rambler Adstat выдает по 50 фраз, соответственно максимум может выпарситься 50*50 = 2500 фраз.
Однако когда начинаю парсить - процесс останавливается при достижении 500 фраз (т.е. это ровно первые 10 страниц), хотя их на самом деле куда больше. Пробовал на разных фразах - как не крути упирается в 500 фраз и все тут. (
Вопрос, это я что-то не так делаю или прога несколько некорректно работает?
Для примера у меня такое происходит на фразах:
автоперевозк*
грузоперевозк*
Нет, не нужно. Если вы хотите именно склеить сайты, то они должны быть настоящими зеркалами - слово в слово.. Если начнете менять контент, то только замедлите склейку..
Как клеить - вот http://help.yandex.ru/webmaster/?id=1108951
Там про переезд описано, но по сути - одна фигня.
По собственному опыту удалось разаффилировать группу из двух сайтов - потребовалось 2 недели.
Что делал:
1. Убрал пересекающиеся контактные данные.
2. Дождался когда обновиться кэш всех страниц на которых были пересекающиеся контакты (Так на всякий).
3. Залез в вебмастер обоих сайтов - удалил там пересекающиеся карточки контактов.
4. Написал в саппорт Яндекса с указанием того по каким запросам сайт ранее был в выдаче, а потом внезапно исчез.. (Не использвал в письме никаких умных слов типа аффилирование и прочее - писал простым языком. Яндекс помешан на борьбе со спамом и агрессивным сео, так что любая терминология для них как красный платок для быка, хоть последние и дальтоники).
Через неделю после отправки письма сайты разаффилировались, суммарно как ренее говорил ушло 2 недели на работы.
Но, хочу отметить сразу, что не должны быть одинаковыми IP-адреса, логотипы и вообще сайты не должны иметь никаких явных следов того, что они принадлежат одной компании, в моем случае оказалось везением, что единственным, что было общего у этих сайтов - это контакты. Так что по возможности удаляйте все следы принадлежности обоих сайтов одной компании и пишите в саппорт..
P.S. Также был опыт удаления одного из сайтов аффилатов - результат закономерный - второй сайт вылез по всем запросам, т.е. через удаление тоже можно, но это уже край...
Я бы вашу структуру:
User-agent: *
Allow: /
Заменил бы на:
Disallow:
Ибо тоже самое, зато правильно...
Инструкция allow - не существует, а те поисковики, типа Яндекса, которые подобное поддерживают - все это от дьявола...
Спасибо за то, что поделились своим опытом!!!
По поводу этого лично я не люблю потому, что почти все социалки в бане. В индексе дай бог десяток страниц. + Идея социальных заклодок да и еще с прямыми ссылками - изначально бедовая идея, ясно что их начали спамить в автоматическом режиме.. В итоге все они пришли в негодность из-за хлама, т.к. модерации там как таковой особо не было..
Опа, опа.. Яндекс серьезно взялся за ПФ... Видимо, это новый путь бороться с ГС, продажей ссылок и прочим мусором наводнившим РуНет.. Да, делать СДЛ несмотря на существенные издержки становится делом куда более перспективным..
Нет не закупал, так как все было в полном порядке с позициями.