- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В общем, товарищи. Проблема такая:
Был сайт... наверно долго висел. На нем было 9 страниц, которые уже давно не индексировались.
Была произведена реорганизация сайта.
То есть, уже давно были удалены 8 страниц, осталась только главная. Яша даже не смотрел на сайт.
Принудительным образом мы заставили обратить внимание роботов на наш ресурс, они проиндексировали только главную, а те 8 удаленных они не нашли (что логично)
Но, и новых страниц роботы тоже не видели, хотя ссылки на них есть с главной.
Был создан sitemap.xml , Яша говорит, что сайтмап еще не обработан..
Как помочь сделать все быстрее?)
Поставьте ссылки на внутренние страницы пациента. Посмотрите может ли до тех страниц дойти робот, не спутаны ли зеркала или не закрыты от индексации ссылки на главной?
intraweb, спасибо, посмотрел. Все норма было.
Значит надо просто подождать.