- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сейчас подумал вот про что: а зачем, собственно, прятать что-то, тем более меню, от поисковых систем? Это оправдано в двух случаях:
1. Если страницы строго приватные (например, личная переписка пользователей). Но в таком случае помогает паролирование и разделение доступа, не так ли?
2. Линкопомойки и прочая непотребность. Но это совсем другой клинический случай.
Гугол рекомендует, для чего следует использовать ссылки с атрибутом NOFOLLOW, случай ТС сюда не входит - а, значит, так поступать не следует.
По поводу перекрытия отдельных страниц или директорий в ROBOTS.TXT (прямо относится к п.2, кстати): Вы в курсе, что Гугол, как и другие поисковые роботы, на основании Robot Exclusion Standard (стандарта по исключению поисковых роботов) имеет полное право их ПОКАЗАТЬ всем? Об этом так и написано в руководстве Гугла для новичков, в разделе про запреты роботов в файле robots.txt, если такой используется на сайте. Кстати, хотите посмотреть Матта Каттса, главного пропагандиста Google в борьбе с поисковым спамом? По последней ссылке он есть, как раз рассказывает на своем буржуинском языке по теме топика.
Так что думайте, прежде, чем создавать страницы, которые потом надо исхитриться запретить для роботов, а в случае неудачи удалять из Гугла!
Для этого ссылки загружаю из .JS, которые запрещены для индексации. Ещё одна штука: чтобы некоторые вещи спрятать, запрещённая для индексации страничка загружается в iframe. На этих страничках стоит скрипт для учёта роботов, и за два месяца заходов не было. Думаю, и .JS он индексирует отдельно, а не вместе со страницей, которая их загружает.