samimages

samimages
Рейтинг
427
Регистрация
31.05.2009
Vladimir #:
Почему она должна удаляться из индекса?

Ну а я-то откуда знаю? Может у него проблемы с хардами))))
То что  BAD_QUALITY удаляется из индекса - факт. Причем тысячами, а не штуками.

Потому и стало интересно спросить у опытных людей. В одну калитку такое трудно осмыслить)))

Привет, Антоний!
Все правильно понимаешь, но вопрос именно технический.
В твоем примере ты не учел, что я говорю не об изменении статуса внутри индекса, а о сроке, за который она вообще вылетает из него. Вообще из Яндекса, как небыло. Как баны начала 2000-х.

Ну и речь идет о парсинге конечно, бессмысленном и беспощадном сотни тысяч страниц под нулевые запросы... там   LOW_DEMAND прям гарантирован)))

Базовая загадка другая.
Представь есть проект 10 лет, миллион страниц.
В яндексе 300 000 в индексе 150 000.
Вопрос в контексте темы: 300 000 это не проиндексированный за 10 лет миллион или ликвидный остаток от него?

Алгоритмически Яндекс не переобходит выкинутые таким образом страницы; на промежутке в полгода/год я не увидел ни одного случая, но если добавить руками, начинает историю такой страницы с момента добавления

minekras :
Немного опишу контекст для лучшего понимания ситуации: планируется региональные поддомены делать для основного сайта - для основных крупных городов.

Не оспаривая написанного коллегами выше. Задам вам пару вопросов, ответы на которые нужны вам, а не мне:
Какой трафик на поддомены получают ваши конкуренты использующие подобное решение?
Как они вышли из ситуации с присутствием в регионах?
Какой расчетный бюджет они используют для полученных результатов?

ответы на эти три вопроса должны быть выражены в цифрах, на первый вопрос по каждому поддомену отдельно, если вы не знаете как ответить на эти вопросы, начните с решения этой проблемы; к моменту решения вы поймете о чем писали вам выше, а главное вам будет чем измерить свои возможности.

sennii #:
Продвижение коммерческого сайта - секрет же каждого сеошника.

Да нет там никакого секрета, делаешь коммерческий сайт для коммерческих СЕРПов и продвигаешь по коммерческим запросам.
Проблема в том, что в 95% случаев сайт делают просто потому что могут, а иногда потому что на хостинге WP ставится автоматом.

После «Палеха» промахнуться мимо кластера - самое легкое что можно сделать, и вам это удалось на все 100% Что бы это понять вам даже не нужно верить мне на слово, ступайте в ЯВМ и смотрите группы и CTR  -  ваш фейл там задокументирован в полном объеме.

В контексте ветки, про данный сайт разговаривать смысла нет. Вам так или иначе делать новый. Начнете вы с ноля или будете исправлять этот пока от старого не останется и следа - нет никакой разницы. Но если вы все это будете делать опять наугад, вы опять будете ранжироваться среди блогов и полуагрегаторов.

Так что первым шагом, будет проектирование: семантика, структура, контент-план и прочая скукота, причем взятая не из вашей головы, а из реальных СЕРПов по каждому запросу, который статистический является коммерческим.

В вашем случае это не очень много работы, не будете филонить за месяц осилите.

SEOCondition :
Можно ли ставить 301 редирект

Можно, но скорее всего прилетит. В вашем случае только редкость данных событий может стать благоприятным фактором для 301-го... а так, коль скоро проблема есть, правильно будет завести для индексации отдельный домен, по примеру проституток.

Skinner2009 :
Я знаю что для написания релевантной статьи надо использоваться список LSI

из чего это следует? Где тут LSI?

Неуч #:
Битрих - один из лучших.

у него хедеры в закрытой части кода, так что он на половину инвалид, даже если юзероориентированный... хотя может вынули, но врятли, это их корпоративный подход.

Redgektor :
Думаю делать структуру по убыванию приоритета:
1) Задаем для конкретных URL, например site.ru/custom-page
2) Задаем для группы страниц, например  site.ru/catalog/ category/brand
3) Базовый алгоритм, чтобы для всех в любом случае были заданы title, description, h1.

Не в том направлении думаете. Поскольку описания товара уже в базе, нужно оттуда их и брать. Расширять семантику и составлять заголовок автоматом, проверяя релевантность к странице. Налету это будет тяжело, а вот, например при выгрузке товара или запуск по требованию - в самый раз.

Что бы не выдумывать велосипед возьмите чьенить API... Мегаиндекса, например.

Silvester #:
Но мой сайт и так идеален

Идеальному сайту не нужно СЯ из вне, идеальный сайт СЯ источает)))

Почему не strpos?.. я так понял ТС-у версии в принципе не нужны, он до хрома целиком доклепался.
Всего: 6199