- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую Вас, форумчане!
Яндекс проиндексировал все содержимое сайта и даже ненужное. Как сделать переиндексацию? За последний год много было сделано правильных изменений, но через Вебмастер наблюдается другая картина. Хочется избавиться от лишнего хлама. Например вот таких страниц http://pk-stroydvor.ru/?attachment_id=1805. Но с другой стороны хотелось на все эти страницы установить переадресацию на правильные.
Я сделал редирект на несколько страниц, но у меня таких страниц более 400. Утомительное занятие, тем более не знаешь правильно ли это.
Подскажите, можно ли так делать, что когда страница кривая, устанавливаем переадресацию на правильную. Я слышал что так многие сеошники так делают.
В крайнем случаю думаю, надо делать переиндексацию, но как?
Очень жду Ваших рекомендаций. Заранее благодарю.
liludskiy, Не надо делать перенаправления, если страничка не нужна в выдаче просто закрываем ее от индексации в robots.txt и не плодим дубли страниц за которые можно под АГС попасть.
Т.е., например, 400 страниц, которые в индексе кривые, я указываю в роботсе с запретом на индексацию? Я правильно понимаю?
liludskiy, Да но не надо указывать каждую страничку по отдельности)))
Maxim-KL, Т.е., например, 400 страниц, которые в индексе кривые, я указываю в роботсе с запретом на индексацию? Я правильно понимаю?
---------- Добавлено 20.12.2015 в 21:17 ----------
а как? я собирался все 400 указать))
Disallow: */attachment/* запретит разом все страницы как вы привели пример. И так со всеми типами страниц. У вас WP?
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-content/uploads
Disallow: /wp-trackback
Disallow: */trackback
Disallow: /wp-feed
Disallow: */feed
Disallow: /?feed=
Disallow: /wp-comments
Disallow: */comments
Disallow: */comment
Disallow: */tag/*
Disallow: */attachment/*
Disallow: *?print=*
Disallow: *show=slide*
Disallow: /*paged=*
Disallow: */page/*
Disallow: /search
Вот вам типовой работающий роботс для него, сайтмапу и хост добавить и всё. Может чего-то не хватает - добавите, зависит от установленных модулей
Я правильно понимаю?
Правильно понимаете, только не надо в роботсе прописывать каждый урл, а прописать категорию которая такие странички создает.... Сложно будет вам объяснить. Лучше укажите несколько урлов которые необходимо закрыть а там уже постараемся вам объяснить как это правильно делать.
Спасибо Вам огромное! Вы очень помогли!