- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день!
Есть проблема, что количество проиндексированных страниц в Яндексе постоянно колеблется. Зависимость какая-то вообще не прослеживается. Появляются страницы, потом выпадают-выпадают, потом опять появляются. В Гугл это более-менее решается с помощью sitemaps, а что для хорошей индексации в Яндексе можно применить?
Спасибо!
p.s. Хостинг работает нормально, какие-то запрещенные приемы не используются, ссылки со страниц не продаются в том числе.
Добрый день!
Есть проблема, что количество проиндексированных страниц в Яндексе постоянно колеблется. Зависимость какая-то вообще не прослеживается. Появляются страницы, потом выпадают-выпадают, потом опять появляются. В Гугл это более-менее решается с помощью sitemaps, а что для хорошей индексации в Яндексе можно применить?
Спасибо!
p.s. Хостинг работает нормально, какие-то запрещенные приемы не используются, ссылки со страниц не продаются в том числе.
1. sitemaps
2. сделать хорошую перелинковку сайта.
3. как можно меньше страниц третьего уровня(чаше всего они выпадают)
1. sitemaps
2. сделать хорошую перелинковку сайта.
3. как можно меньше страниц третьего уровня(чаше всего они выпадают)
Евгений, все верно, но "без третьего уровня вложенности" - только визитки...
1. sitemaps
2. сделать хорошую перелинковку сайта.
3. как можно меньше страниц третьего уровня(чаше всего они выпадают)
Пункты 2 и 3 не при чем. Скорее всего колебания эти вызваны одной из двух причин:
1. На сайте много нечетких дублей. Тут поможет noindex.
2. Алгоритмы Яндекса какие-то станицы считают спамными и выкидывают из индекса.
Кстати, мы не уточнили одно важную деталь: в каких пределах вообще меняется число проиндексированных страниц? Желательно в абсолютных цифрах.
Пункты 2 и 3 не при чем.
Как сказать..Перелинковка влияет на индексацию сайта и на вылет страниц тоже(видимость страницы).
А про дули четко подметил, не учел сразу. Да это может быть причиной постоянных вылетов.
У меня вылетали из-за плохого регионального хостинга. Сменил на Москву и все стало на свои места.
Как сказать..Перелинковка влияет на индексацию сайта и на вылет страниц тоже(видимость страницы).
Как влияет, расскажи :) Я такого ни разу не замечал - всегда было достаточно только карты сайта ;)
Кстати, nppkornet очень правильно подметил - хостинг тоже может быть причиной. И CMS (если сайт на ней) тоже.
Как влияет, расскажи :) Я такого ни разу не замечал - всегда было достаточно только карты сайта ;)
а карта сайта это не способ перелинковки сайта для лучшей видимости страниц?;)
так же и перелинковка влияет🚬
1. sitemaps
2. сделать хорошую перелинковку сайта.
3. как можно меньше страниц третьего уровня(чаше всего они выпадают)
sitemaps - и что реально помогает именно с этой проблемой? страницы ведь проиндексированы, почему они то появляются, то выпадают?
по пункту третьему - по-моему это невозможно, сайт продающий - второй уровень - развернутый каталог, третий уровень - подгруппы каталога, четвертый - карточки товара
Пункты 2 и 3 не при чем. Скорее всего колебания эти вызваны одной из двух причин:
1. На сайте много нечетких дублей. Тут поможет noindex.
2. Алгоритмы Яндекса какие-то станицы считают спамными и выкидывают из индекса.
Кстати, мы не уточнили одно важную деталь: в каких пределах вообще меняется число проиндексированных страниц? Желательно в абсолютных цифрах.
По поводу нечетких дублей - возможно. Наш сайт содержит 400 позиций товара. Есть наш же сайт, который тоже содержит эти же позиции, но также еще 45 000. То есть для торговой марки своей мы сделали отдельный сайт. ЕГо не внесли в Я.Каталог даже за деньги на том основании, что он нечеткий дубль бОльшего сайта. Что тогда закрывать в noindex - и название и описание? :-) А что тогда останется? :))
При переиндексации, робот возможно просто не сможет добраться до нужной страницы.
По поводу 3го уровня - полностью согласен.