- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А я удалял с гугла и он всё равно хавает в индекс, сейчас в яндексе что то нахавало.
Что за плагин, что он делает?
Закрывает ненужные категории, теги, страницы, медиа файлы, записи с помощью Meta Robots.
Плагин хорошо описан и полностью русифицирован.
В последнее время оптимальное через метатеги закрывать индексацию, а не самым Robots.txt
Почему? При корректном роботсе роботу может не заходить на страницу, а если стоит метатег он её должен посетить, чтобы понят, что её рекомендуют не включать в индекс.
Почему? При корректном роботсе роботу может не заходить на страницу, а если стоит метатег он её должен посетить, чтобы понят, что её рекомендуют не включать в индекс.
посетит, но не будет загружать, увидев метатег, и сканировать ее будет реже в будущем. Ну да, если с точки зрения нагрузки на говнохостинг, на котором крупные сателиты, то оптимальное решение – Robots.txt. Но в нашей теме увы, это не прокатит. Так как много случаев, когда в индекс влетают закрытые странички в Robots.txt, когда на них проставить прямые ссылки.
Почему? При корректном роботсе роботу может не заходить на страницу, а если стоит метатег он её должен посетить, чтобы понят, что её рекомендуют не включать в индекс.
Если не посетит, не даст пузомерок.
User-agent: YandexBlog
Disallow:
Allow: /*
а вот эти строчки что делают? :)
а вот эти строчки что делают? :)
Сигнал боту что можно читать все, но он кроме фидов все равно не чего не читает.
Сигнал боту что можно читать все, но он кроме фидов все равно не чего не читает.
я бы на это честно говоря не рассчитывал, впрочем как и на любые правила в роботсе - это рекомендация и не более ;)
Если не посетит, не даст пузомерок.
Стат вес передается или текстовое или и то и то со страниц вне "видимого, проверяемого" индекса?
Между секциями нету что-ли у вас пустых строк?
Стат вес передается или текстовое или и то и то со страниц вне "видимого, проверяемого" индекса?
Точно не уверен, но думаю, что со страниц закрытых в роботсе не чего не передается, как и на них. Года пол назад на seomoz говорили что роботс может убить внутреннею перелинковку.