- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Вот и я мечусь над тем нужно или не нужно. С одной стороны нужно, птотму что это дубли и Яндекс говорит, что много повторяющихся descriptions, с другой стороны у меня есть успешные сайты, где пагинация не закрыта. У конкурентов в robots 50 на 50, у половины закрыты, у половины нет
Так выше правильный пример. Страницы не заблокированы, переход по ссылкам осуществляется, но сами страницы не индексируются. И каноникал для гугла поставьте на 1ю страницу.
А дескрипшены нужно уникализировать. К примеру "102я страница розовых слонов".
Как поисковики будут индексировать товары?
Через XML карту сайта, а также через. доп. контекстные выводы (анонсы, допселы, кросселы, хлебные крошки, перелинковку и т.д.)
с другой стороны у меня есть успешные сайты, где пагинация не закрыта
Решения вопроса пагинации - это далеко не исчерпывающая проблема. Зачастую она вообще ничего не меняет в ранжировании.
Это лишь один из множества служебных вопросов в оптимизации содержательности части индексации.
Вот и я мечусь над тем нужно или не нужно. С одной стороны нужно, птотму что это дубли и Яндекс говорит, что много повторяющихся descriptions, с другой стороны у меня есть успешные сайты, где пагинация не закрыта. У конкурентов в robots 50 на 50, у половины закрыты, у половины нет
Если прописать каждую страницу page, будет полезно, не просто заголовок словом одним, а нормальный. А так, они мусор. Записи, метки, категории, старицы - вот что хорошо. Все нужно прописывать.
Вчера на старых сайтах произошел массовый вылет страниц из индекса, вебмастер пока показывает старое значение, вылета не показывает.
Никакого вылета. Вот тема: https://searchengines.guru/ru/forum/1062614
Яндекс просто обнулил ещё одну команду из своего языка запросов.
Вчера на старых сайтах произошел массовый вылет страниц из индекса, вебмастер пока показывает старое значение, вылета не показывает.
Есть такое с неделю - две как уже.