- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Такое вот громкое название темы:)
Ситуация такова:
На сайте часть ссылок сделана вручную через редирект. Для каждой ссылки есть отдельный файл. Файлы хранятся в корне сайта в папке links. Внутри нее есть еще подпапки. В роботсе папка закрыта от индексации конструкцией Disallow: /links
Проблема:
Данные файлы все равно индексируются и их можно найти через поиск. Существует ли метод, как закрыть эти файлы от индексации? Возможно при помощи метатегов noindex и.д. Одним словом запретить поисковику индексировать эти файлы.
Заранее спасибо!
Приведите примеры урлов, которые надо закрыть и урлов, которые не надо закрывать, по 5 штук.
Только роботс наверняка запрещает индексацию. Как они у вас попали в поиск - непонятно. А в какой ПС?
Приведите примеры урлов, которые надо закрыть и урлов, которые не надо закрывать, по 5 штук.
Например, нужно закрыть от индексации:
http://site.ru/links/mylink.php
А если быть точным, то закрыть все, что находится в папке links. Для этого, как я уже говорил, в роботсе добавил строку Disallow: /links
Только что перепроверил в панели вебмастера Яндекс и Гугл. Яндекс выдает, что файлы закрыты от индексации и в поиске ничего нет.
Гугл тоже говорит, что файлы закрыты от индексации, но в поиске есть страницы, типо:
Название страницы, на которую ведет редирект - Название моего сайта
Выходит поисковик все равно индексирует все файлы, которые находятся в папке links несмотря на запрет.
но в поиске есть страницы,
Ждите месяц хотя бы.
Название страницы, на которую ведет редирект - Название моего сайта
Где вы это смотрите, какой поисковый запрос? Покажите пример здесь.
За редиректы не будет мне никаких санкций от поисковых систем?
Дело в том, что я отключил все плагины, закрывающие ссылки от индексации. На остальные создал по файлу для редиректа. Все файлы отсортировал по папкам. Вышло штук 50-100.
Вот теперь думаю, не чревато ли это последствиями? Редирект это ведь как обман пользователя...
perehvat добавил 14.04.2011 в 17:55
Где вы это смотрите, какой поисковый запрос? Покажите пример здесь.
Просто ввожу в поиск ссылку и мне выдает вот такую абракадабру.
Тайтл с кусков моего сайта и сайта, на который ведет редирект.