Recoba

Recoba
Рейтинг
112
Регистрация
04.04.2008

110-120 уников и 80-90 - это ничтожно мало, чтобы выдвигать какие-либо гипотезы. Развивайте сайт на новом движке далее

Metal_Messiah:

Смысл возиться, допустим, с уникальными статьями для статейного продвижения, если половина этих статей так и не попадет в индекс?

если статья норм, если добраться с главной до нее не более 3 кликов - то за месяц зайдет сама. В противном случае статья гомно, либо сам донор. И толку с такой ссылки будет мало. Хороший контент за месяц железно входит в индекс. По моему опыту) и держится там. А даже если удастся загнать гомно быстророботом - выплюнет.

GlebEGA:

4. После полной индексации настраиваем постраничный 301 редирект, открываем доступ Гуглу к новым страницам.

После полной индексации? Наверна имелось ввиду после того, как Яндекс склеит в одну группу зеркал - после этого можно делать 301 и открывать на индекс гуглу. Ждать полной индексации Яндекса не стоит.

GlebEGA:

5. После индексации новых страниц Гуглом спокойно удаляем контент поддомена, кроме .htaccess и robots.txt.

я бы еще оставил sitemap.xml , в котором оставить урлы с поддоменом. Если страниц поддомена много - Гугл будет очень долго переклеивать. У самого ИМ, переклейка на https, стоят 301 уже очень давно! В кэше гугла до сих страницы с http и там свежие мартовские даты почему-то.

и сайтмап и роботс не должны редиректить.

Согласен с пунктом 3, остальные пункты - это по сути одно и тоже. Непонимание происходящего.

По пункту 3 - если снимать абстрактные позиции xml в одно и то же время суток, то в условные 12-00 вторника позиции сильно выше, чем позиции в 12-00 в прошлый вторник, а трафик - в обратную сторону. И даже если сравнивать просто 2 дня - падение позиций может не пошатнуть траф вообще!

Коммерция, ИМ. (недельные колебания, праздники и прочие вещи учтены)

добавьте офис московский в Яндекс организации, а сам регион в вебмастере не трогайте. Я думаю это будет верно во всех смыслах. Если что-то ухудшится - откатите организацию.

svv:
Вам легко говорить.
Мои сайты Гугл клинически не любит. Траффика даёт минимум.
Почему - ХЗ
Может из-за отсутствия ссылок ...?

аналогично, в Гугле беда. Вот убрать из индекса +100500 страниц с шаблонными мета и контентом - один из шагов на пути к любви с Гуглом. Ссылок естественных полно, не закупаем

yonen:
лечится снятием ссылок, все чаще в топах сидят сайты без ссылок. У нас большой ИМ по России, двиг был под яшу и гугл, в итоге после смены алгоритмов в сторону бессылочности, просели в яндексе на 30%, это не лечится, день мы в топе, день сайты без ссылок, по кликам все получают равное число, просто точи свои страницы под гугл

Плюсую. Стабильные топы Яндексу не нужны по понятным причинам. Кто ругал "устоявшийся" топ из старичков — те получили свои крохи трафа за счет бандита. Сами старички потянулись в директ за былыми объемами трафа. Сейчас всем по чуть-чуть отсыпает Яндекс, кто хочет больше — понятно в какую очередь вставать (за старичками).

Конечно, офиц позиция - сложные алгоритмы, матрихнет, палехнет и т.д. "Развивайте сайт" - это посыл, чтоб конечный пользователь, тыкая в директ, получал своё на удобном ресурсе. И вырабатывалась система: тыкая в директ, я найду что искал на крутом сайте. Менять мнение людей, что не только в органике сайты, которым можно доверять и они полезны и т.д.

А если мы не будем развивать сайт - то у пользователей сложится мнение, что в директе рыбы нету. Яндексу оно надо?

Сорри. Наржавело)

P.S. А развивать сайт в любом случае надо, ибо не Яндексом единым

svv:
Т.е. эффективнее не 404-ю отдавать, а мета-ноуиндекс?

я думаю да.

у меня пользователи имеют возможность попасть на такой закрытый урл, если им хочется все же. И он чпу и там выводится корректный листинг товаров. Просто закрыто мета нэйм ноиндекс и на него нету активных ссылок в коде.

svv:
Коллеги, возник закономерный вопрос.
Вот, к примеру, есть товар "синие рубашки" (см. выше), но синие рубашки выпускают несколько производителей. Есть создаваемые автоматически разделы "Синие рубашки производителя ААА", "Синие рубашки производителя БББ" и пр. В отличие от раздела "Синие рубашки 42 размера" я понимаю, что эти вряд ли кто то будет запрашивать и готов от них отказаться.

Как это сделать?
Просто выдав на их месте 404-ю или 301-ю ошибки получу банальный перенос некачественной страницы из одного раздела бана Яндекса в другой.
Поможет запрет в robots.txt?
Может есть другие варианты?

внедрили закрытие страниц с 2 выбранными фильтрами (потому что там были шаблонные тайтлы, метатеги, h1 и куски текста на 200-2500зн. после h1 и яша кидал их туда сюда как некачественные) так:

через мета нейм роботс ноиндекс, а так же убирание всех внутренних ссылок на такие страницы. прошло 3 недели, страницы из индекса улетают медленно))

при этом в панели управления есть чекбокс, активация которого убирает вывод мета нейм робот ноиндекс и появляются ссылки внутренние на такую страницу, страница попадает в сайтмап. цмс самопис.

сделали для Гугла, ибо там все плохо и куча таких страниц с 2 фильтрами с шаблонными данными в индексе - тянет на дно

если структура сайта хорошая, вложенность страниц не более 3 кликов, перелинковка есть - то сайтмап особо и не нужен.

для крупных сайтов: если выводить в нем строго те страницы, которые хочется иметь в индексе (без дублей, мусора и т.д.), то удобно отслеживать индексацию в гугле. Особенно если разбить сайтмап на логические файлы (например, для ИМ - каждый сайтмап - своя категория с товарами, в другом инфостатьи, в третьем карточки товаров и т.д.)

Всего: 428