GRAYSTONE

GRAYSTONE
Рейтинг
74
Регистрация
13.01.2006
Shrike:
Спасибо.
Выловил более тысячи 404 ошибок через Гугл для Вебмастеров, поставил на них 301, теперь количество ошибок ограничивается десятками.

Тогда еще вопрос. У меня в файле редиректов уже более 2,5 тыс записей. И будет расти по мере замены адресов. Это нормальное количество? С этим не будет связано каких-либо проблем на хостинге или в позициях?

Это, скорее, нагрузка на сервер, если трафик будет большой.

Что касается понижения позиций, это время покажет. По крайней мере вы сделали так, как рекомендует сам Google.

У меня похожая ситуация - около 2к страниц с ID в ЧПУ. Пока не решился сменить формат. Не хотелось бы терять в трафике, есть обязательства перед рекламодателями.

Ну, почему сразу мешают и уносят вес.

Страница тега может быть релевантна запросу равному названию тега. То есть, если правильно воспользоваться данной возможностью движка DLE, то можно собрать НЧ трафик на страницу тега.

Что касается веса, то немного неправильно понимаете его суть. Вес страницы не может утечь, он может передаться. Прочитайте про гугловский Page Rank. Как он формируется и передается по ссылкам. Станет понятнее. К сожалению, под рукой нет ссылки, но уверен, что и на форуме обсуждалось, и в поисковиках можно найти.

И посмотрите ссылку, которую minSEO дал. Просто прокомментирую так, что старайтесь избегать топорного назначения тегов страницам. Если страницы тегов будут дублировать друг друга, то тут уже другие проблемы начнут возникать и убегающий вес тут абсолютно не причем.

Разместил статью. Быстро, качественно, достойно. Спасибо.

stasnokia:
GRAYSTONE, это писал я, про то что читал "у шакина"(прям как название кафе какого-то :)), но сам пока эксперементы не проводил :)

Сори, что не запомнил ника. Просто судорожно пролистывал страницы и надеялся, что худшее еще не настало )))

А Шакин действительно дело пишет. Конструктивно, аргументированно и с экспериментами. ИМХО самый адекватный блог про интернет-маркетинг :)

stasnokia, насчет ссылок вида сайт.ру без анкоров. Кто-то в данной теме уже отписался, что читал у Шакина про влияние текста в окружении ссылок что-то около 20 символов. Не могу утверждать, что работает однозначно, поскольку не проводил эксперимента сам, но уверен процентов на 80, что это факт. Плюс тематика страницы-донора и наличие ключевых слов на ней. В итоге получаем, что читатели, ставя ссылку вида #a#аффтар тут#/a#, и описывая происходящее на акцепторе, невольно ставят нужный анкор :) Это мое ИМХО. Да и по работе видно, что в этом есть смысл.

GRAYSTONE добавил 17.11.2009 в 04:00

Drayvs:
Мне любопытно как это сделать коммерческий сайт(магазин) интересным читателями?)

Палю тему ☝ сделать интересный информационный раздел, блог, провести промо-акцию, устроить флеш-моб или конкурс.

stasnokia:
Короче чтобы быть в топе нужно - Хороший контент, ссылки как покупные, вручную проставленые, как с прямым вхождением, так и хорошо разбавленные, чтобы запрос присутствовал в урле/названии домена, беки должны быть как старыми, так и молодыми, сам сайт трастовым - много суперстарых беков, постоянно обновляться, каждый ап множество новых беков разного вида, можно даже с обшибками в анкорах для "реальности" :) - это из того, что собрал в этом топике, и свои имхи добавлены...Может кто чего добавит?

И как мораль - сайт должен быть настолько интересным, чтобы его "продвигали" читатели :)

Если серьезно, то подтверждаю, что разбавление "естественными" ссылками привело к хорошим плюсам, а упор только на сапу дал минусовой результат.

Спасибо romasenco за оперативную и качественно исполненную работу. Все даже лучше, чем заказывал :)

antonprk:
Это все понятно, что на меня никто равняться не будет.
Но логика поиска информации у всех разная.
И если человек открыл последовательно 3 сайта по запросу, а при открытии на каждом задержался минимум на 3 минуты, то никто не сможет сказать
с уверенностью более 30%, что нужная информация найдена на последнем сайте.
Просто в данном случае очень много факторов влияющих на достоверность, это как минимум:
1) Релевантность открывшихся сайтов внутренним восприятиям человека ( нравится/не нравится дизайн, текст, телефон, город, товар, менюшка, цвет и т.д.)
2) Релевантность открывшихся сайтов необходимой информации ( по запросу "кондиционер panassonic" можно искать как характеристики, так и цены, так и тзывы, так и инструкцию по установке, да есть уточняющизе запросы, которые можно тоже анализировать, но это уже другой запрос и другие позиции)
3) Наличие рекламы на открывшихся сайтах (например реклама от другой фирмы - кликнул и ушел и там нашел то, что нужно или сайт совпал с одним из 3-х сайтов в поисковике)

Несомненно, что масса факторов влияют на окончательный выбор того или иного сайта. Да, даже магнитные бури и вчерашняя пьянка и сегодняшний бодун. Но с определенной долей вероятности мы можем задать некую среднюю величину и назвать ее распределением CTR в серпе по конкретному запросу. Отсюда можно уже назначить коэффициент для каждой позиции и вуаля!.

(Это предположение!!!!!!) если CTR третьего сниппета выше, чем CTR второго, то логично предположить, что третий сайт заслуживает быть вторым.

alexdo:
Два сайта одной тематики. Один для Киева, другой для Москвы.
Одинаково написаны домены, но в разных зонах.
Одинаковые главные страницы. Дальше главной структура одинаковая, но разная инфа.

Может ли произойти склейка? Как ее можно избежать?

Морду менять не захотят.. работает скрипт ГеоАйПи, который "распределяет" географию аудитории по сайтам..

Почитайте про фильтр аффилированности

antonprk:
Не факт, я могу накликать с 20 сайтов, но не всегда сразу открывается нужная страница.
Более того можно ходить по 20-ти открытым сайтам и искать необходимую информацию и даже
уйти по ссылке с сайта на другие сайты.
Поэтому далеко не факт, что последний открытый сайт с поисковика - самый релевантный.

Как вы думаете, ваш опыт поиска информации в поисковых системах сколько еще людей применяют на практике?

Ведь речь идет не о вас, а об общей статистике и некоем алгоритме усреднения и назначения коэффициентов.

Всего: 194