skateordie

skateordie
Рейтинг
62
Регистрация
29.12.2008
Задача: понять слабые места сайта относительно конкурентов (по СЯ, по % видимости ключей в серпе, по контенту, структуре, юзабилити, посещаемости, ПФ) и сделать выводы с рекомендациями.
Какие данные необходимо собрать для этого?
Какими инструментами, сервисами рекомендуете пользоваться?
Буду благодарен за подробный ответ.)

Вопрос сильно обобщёны, почитайте данную ветку для начала.

/ru/forum/comment/5019267

Из софта советую: Yazzle, Allsubmitter, KeyCollector, Xenu.

skateordie добавил 05.05.2011 в 19:39

это как раз ясно, не ясно, когда Last-modified есть и сайт не обновляется)))) ну год например, а через год появляется новая страница...

Так а причём тут Last-modified, это всего лишь заголовок, уведомляющий ПБ о обновлении страницы, а не сайта в целом.

Вопрос про СЕО, смысл есть в этом? Влияет на техническую сторону индексации или нет? Страницы быстрее входят в индекс или нет?

Ответ в принципе тут http://help.yandex.ru/webmaster/?id=995332. Но зацикливается на этом, смысла не вижу.

как учитывается несколько ссылок с одной страницы на сторонний сайт? Как распределяются веса анкоров, зависит ли это как-то от того идут эти ссылки на одну и туже страницу или на разные, от последовательности ссылок в коде страницы, или еще каких-либо факторов?

Если одна страница А ссылается на страницу Б дважды, Гугл учитывает только первую ссылку (следующую игнорирует), Яндекс учитывает обе.

Если одна страница А ссылается на страницу Б и В с одного сайта, зачтутся обе ссылки.

Сколько одинаковых ссылок (один и тот же анкор) с различных страниц одного сайта на другой может быть независимо учтено (кстати интересна еще и мера % или кол-во)?
Что эфективней сквозняк (единоанкорный такскзать) со всего сайта, или ссылка с какой-либо одной страницы (для продвижения по ключу анкора)?

Не хочу плодить домыслы, не проводил экспериментов с этим.

Ок. Переформулирую свой вчерашний вопрос...

Естественно вопрос в разрезе динамического сайта.

Проблема такова, что каждый новый запрос, возраст страницы указывается на данную секунду, таким образом ПС может проверить действительный возраст контента только сравнивая со своим индексом...

Однако не смотря на это, многие сайты успешно индексируются.

Вопрос

Имеет ли смысл указывать время последней модификации документа?

Смысл

Для улучшения индексации - робот с одного захода обходит больше страниц ибо не надо тащить те, что не менялись и соответственно новые странички быстрее входят в индекс

Так ПС скорее всего сверяют текущее время и Last-modified, можно попробовать установить задержку на пару тройку часов, но это только догадка.

Потрясающий ответ. Опять вода. Так и нет ответа, связи Сапы и АГС, кроме заигрывания с умными словами.

Окей, я могу ошибаться по поводу АГС. Но увы не знаю, как объяснить вам по другому. Предлагаю вам помочь мне в этой области, дать направление:)

А это, не намек?

Я лишь обратил внимание, как было у меня.

А если на сайте 100500 пользователей, много просмотров и долго сидят, это круто? Или как там... Это трас? А если сайт реальное говно и все эти "посиделки" хоть и от живых людей, но не по причине их интереса, а... ну, в общем, сидят они там и бродят. М?

Интересно по какой причине, они будут там сидеть? Ржать с того, какой хреновый сайт?

Сделал Вася из 9-го Б класса свою страничку, и разместил там видеоролик, показал в школе, и так это понравилось одноклассникам, что все стали делиться ссылками, писать об этом на форумах, блогах и т.д. И за небольшой промежуток времени на сайт появилось 100500 тыщ ссылок. Все, кранты?

Они же не ссылки пошли покупать, верно? Это естественная ссылочная масса.

Какая частотность запросов, по котором прогнозировалась посещаемость?

Разберём на примере:

Имеем запрос A, парсим его частноть(Ач) и уточноённую частность("!А"), после чего вычисляем отношение(Оа):

Oa="!A"/Aч=421/1173=0,358

На примере статистики за ноябрь, получаем частность запроса А за этот месяц(Ан), вычисляем уточнённую частность за ноябрь:

"!Ан"=Aн*Оа=1430*0,358=512

Снимаем данные статистики с данной таблицы http://www.seonews.ru/analytics/detail/9079.php, CTRн моего запроса 0,204 (2-ое месте в выдаче), получаем прогнозируемое число переходов за ноябрь (Тпрн):

Tпрн="!Ан"*СTRн=512*0,204=104,448

Идём в Google аналитикс и смотрим статистику: 106 переходов.

Дабы не быть голословным запрос "Копии мобильных телефонов" - регион Украина. Скрин с аналитикса так же могу приложить.

muratti, Вы неверно вопросы по АГС формулируете. Вот так надо: есть сайт, с него продано 4700 ссылок, уникального контента нет, почему он не под АГС?

Без понятия, я лишь смотрю по сайтам, которые у меня выпадали.

как определить, сколько переходов возможно по какому-то определенному запросу, если он находиться в топ-3,5.?

Уже был подобного рода вопрос.

Я работаю с программой KeyCollector.

Расчёт для Яндекса.

Расчёт провожу по формуле Т=П*CRT,

где Т-трафик,

П-уточнённая(!) частность по Яндексу,

СRT - Отношение кликов к показам (http://www.seonews.ru/analytics/detail/9079.php)

Нужно также учитывать сезонность и регион запроса.

Тоже самое можно, использовать и для Рамблера.

Можно пробывать парсить Adwords, но я ограничиваюсь Yandex.wordstats.

Любого ссылочного?

Даже не знаю, бюджет не позволяет закупать хорошие ссылки в больших объёмах.

Но большое кол-во ссылок с каталогов и мусорных саповских беков, несут отрицательный эффект для молодого сайта.

Как не крути, ссылочную массу нужно максимально разбавлять.

И в чем конкретно эта причина?

Главная причина АГС - низкое качество контента. Но манипауляция поисковой выдачей может, так же может привлечь внимание фильтра.

Как было установлено, что сайты вылетели именно из-за продажи ссылок, из-за того, что вылетели?

Я не говорил, что причина продажа ссылок.

Это все в теории у вас, я так понимаю?

Поведенческий фактор указывает на качество контента, но да - это всего лишь моя теория .

Можно ли завалить сайт конкурента "плохими ссылками"?

Не проводил подобного рода экспериментов.

И вообще бывают ли ссылки "плохими"?

Уже был подобного рода вопрос.

Резкий рост ссылочного для молодого, может и скорее всего будет засчитан ПС, как сео-прессинг, после чего последует пессимизации.

Подскажите, пожалуйста, в рубрике "Апы Яндекса" увидел фразу "Есть сохраненка 30 апреля", "Да, есть сохраненки от 01.05" относительно последнего апа от 5го мая. Что это значит?
Поиск не помог.

Видимо имеется в виду сохранёная копия страницы, в кеше Яндекса.

А при чём тут ссылки? А если их нет?

Тогда не знаю даже, если не сложно подскажите в каком направлении работать.

Если Вы попробуете применить это на практике, то очень удивитесь.

Продвигал свой интернет-магазин, данные собирал по такой системе (данные по СТR, брал отсюда http://www.seonews.ru/analytics/detail/9079.php). С яндекса траф примерно сходился, с гугла трафа было примерно в 2 раза больше, так как поисковик в Украине более котируется среди пользователей.

Но у меня был всего один проект, для которого мне приходилось собирать статистику по трафику.

Сквозные ссылки с двух тематически близких сайтов друг на друга - хорошо или нет?

Сквозные ссылки с качественных ресурсов всегда хорошо, но лучше не использовать прямой обмен, т.к. вес передаваемый ссылкой занижается. Сделайте хотя бы так A->B, B->C, C->A. Я же использую для линковки своих сайтов совсем другую схему.

Всего: 364