- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
ситуация такая: на сайте 1500 страниц, в индексе - 900, робот сапы находит 650, но после проверки на индексацию остается только 12 проиндексированных... видимо виноваты дубли (у одной и той же страницы 2 разных урла, та страница, на которую есть ссылка с главной непроиндексирована)
Подскажите plz, что делать в такой ситуации? (как удалить дубли, поможет ли установка компонента ЧПУ, и какую карту сайта лучше использовать?)
ситуация такая: на сайте 1500 страниц, в индексе - 900, робот сапы находит 650, но после проверки на индексацию остается только 12 проиндексированных... видимо виноваты дубли (у одной и той же страницы 2 разных урла, та страница, на которую есть ссылка с главной непроиндексирована)
Подскажите plz, что делать в такой ситуации? (как удалить дубли, поможет ли установка компонента ЧПУ, и какую карту сайта лучше использовать?)
Дубли страниц - это плохо. Каждая страница сайта должны быть доступна только по одному url-адресу!
ЧПУ - это хорошо, реализуйте данный вид урлов. Карту сайта можно сделать и xml и html форматов.
Удаляйте все дубликаты страниц, со временем роботы проиндексируют новый формат Вашего сайта.
ясно, спс... а не подскажите, как выявить и удалить дубли?)
Junost, если Вы разбираетесь в структуре своего сайта, то проблем с выявлением быть не должно. :) Оставляйте страницу с ЧПУ, остальные закрывайте в robots.txt. Карту сайта генерируйте в xml, добавляйте её в robots.txt. Я ещё настоятельно рекомендую скармливать её Гуглу и Яше вручную в панелях.
Установите компонент ЧПУ, например OpenSEF, он уберет все дубли под нормальные урлы.