kolesnicoff

Рейтинг
48
Регистрация
21.06.2007
Должность
SEO.
Интересы
IT, Sport.
SPb.Man
globalre:
loginsru по вордстату показыает 3120 запросов в месяц, какая за него может быть драка :) ? смешно.

Совершенно не в упрек будет сказано, а скорее даже в образовательных целях. :)

Частотность запроса и его конкурентность - имеют не прямолинейную связь, а порой даже никак не связаны. Я успел повидать запросы с космической частотностью - дающие много трафа, но при этом с достаточно низкой конкуренцией - пример, запрос "!драки" — 16527.. В свое время выводил его за 10 у.е. в месяц, имел траф с него каждый день 150-200 уников. Почему так получается, да просто запрос не коммерческий, спрашивают его в основной своей массе молодежь, которой руки некуда присунуть - аудитория с низкой покупательной способностью..

Обратный пример "!недвижимость !петербурга" - 417.. За этот запрос многие сумашедшие бабки вликают в продвижение, а по факту он дает дай бог 1-2 посетителя в сутки..

Поэтому классифицировать запросы нужно так, как это сделано в "руках" частотность + конкурентность..

P.S. Не зря кем-то было сказано, что 1000 посетителей в тематике "развлечений" - это ничто, а 100 посетителей в тематике "ноутбуки" - это уже что-то..

Хотел прояснить один момент.

Исходные данные таковы, у меня есть уже список запросов, скажем 100 или 200 - не важно, я их добавляю в программу вручную. Дальше я хочу узнать статистику Rambler Adstat. Выбираю месяц и нажимаю кнопку "сбор данных для имеющихся ключевых фраз"

Программа собирает - http://clip2net.com/s/PIwz

Она собирает то, что на картинке отмечено как 1, но мне нужно то, что отмечено как 2.

Вопрос, можно ли собирать как-то эти данные или это невозможно?

И еще хотел узнать, у вас есть где-нибудь что-то вроде виш-листа, где можно оставлять пожелания?

Спасибо за ответы!

В настройках на вкладках "Yandex Wordstat", "Rambler Adstat", "Подсказки", "Liveinternet" есть такой параметр как "глубина парсинга"

Подскажите по опыту пожалуйста, какое значение данного показателя для каждого из типов источников оптимально?

Оптимально - значит что данные собираются наиболее полно и время парсинга не устремляется в бесконечность.

Спасибо!

Устанавливаю в настройках "Rambler Adstat" -> "Парсить страниц = 50"

На каждой странице Rambler Adstat выдает по 50 фраз, соответственно максимум может выпарситься 50*50 = 2500 фраз.

Однако когда начинаю парсить - процесс останавливается при достижении 500 фраз (т.е. это ровно первые 10 страниц), хотя их на самом деле куда больше. Пробовал на разных фразах - как не крути упирается в 500 фраз и все тут. (

Вопрос, это я что-то не так делаю или прога несколько некорректно работает?

Для примера у меня такое происходит на фразах:

автоперевозк*

грузоперевозк*

RodinAndrey:
При склейке контент на будущем главном зеркале менять нужно?

Нет, не нужно. Если вы хотите именно склеить сайты, то они должны быть настоящими зеркалами - слово в слово.. Если начнете менять контент, то только замедлите склейку..

Как клеить - вот http://help.yandex.ru/webmaster/?id=1108951

Там про переезд описано, но по сути - одна фигня.

По собственному опыту удалось разаффилировать группу из двух сайтов - потребовалось 2 недели.

Что делал:

1. Убрал пересекающиеся контактные данные.

2. Дождался когда обновиться кэш всех страниц на которых были пересекающиеся контакты (Так на всякий).

3. Залез в вебмастер обоих сайтов - удалил там пересекающиеся карточки контактов.

4. Написал в саппорт Яндекса с указанием того по каким запросам сайт ранее был в выдаче, а потом внезапно исчез.. (Не использвал в письме никаких умных слов типа аффилирование и прочее - писал простым языком. Яндекс помешан на борьбе со спамом и агрессивным сео, так что любая терминология для них как красный платок для быка, хоть последние и дальтоники).

Через неделю после отправки письма сайты разаффилировались, суммарно как ренее говорил ушло 2 недели на работы.

Но, хочу отметить сразу, что не должны быть одинаковыми IP-адреса, логотипы и вообще сайты не должны иметь никаких явных следов того, что они принадлежат одной компании, в моем случае оказалось везением, что единственным, что было общего у этих сайтов - это контакты. Так что по возможности удаляйте все следы принадлежности обоих сайтов одной компании и пишите в саппорт..

P.S. Также был опыт удаления одного из сайтов аффилатов - результат закономерный - второй сайт вылез по всем запросам, т.е. через удаление тоже можно, но это уже край...

Я бы вашу структуру:

User-agent: *

Allow: /

Заменил бы на:

User-agent: *

Disallow:

Ибо тоже самое, зато правильно...

Инструкция allow - не существует, а те поисковики, типа Яндекса, которые подобное поддерживают - все это от дьявола...

Спасибо за то, что поделились своим опытом!!!

LawbreaK:

2. Прогон по социалкам. Не знаю, почему люди не любят, но эффект дает. Хоть и небольшой.

По поводу этого лично я не люблю потому, что почти все социалки в бане. В индексе дай бог десяток страниц. + Идея социальных заклодок да и еще с прямыми ссылками - изначально бедовая идея, ясно что их начали спамить в автоматическом режиме.. В итоге все они пришли в негодность из-за хлама, т.к. модерации там как таковой особо не было..

Опа, опа.. Яндекс серьезно взялся за ПФ... Видимо, это новый путь бороться с ГС, продажей ссылок и прочим мусором наводнившим РуНет.. Да, делать СДЛ несмотря на существенные издержки становится делом куда более перспективным..

USSR12:
А до этого в каком темпе закупались ссылки?

USSR12 добавил 22.12.2010 в 10:40

И новые ссылки не покупали на сайт в прошедшие две недели?

Нет не закупал, так как все было в полном порядке с позициями.

Всего: 178