- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Золото, меха, бриллианты: как мы продвигали элитные товары и увеличили количество заказов в 30 раз
Сайт — нулевой, без трафика, в месяц — 29 посещений. Но кто сказал, что мы боимся трудностей
Сергей Шабуров

Бесплатный вебинар: «Цена ошибок в аналитике, или куда уходят миллионы»
7 декабря в 14:00
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вебмастер показывает наличие странных урлов в гугле, видимо созданные черз одно место или движком или гуглом.
Как принудительно удалить их из поиска или как лучше поступить.
Страницы все разно плановые
примеры
http://sute.ru/category/dreli-shurupoverty-vintorezy//offset48/product/drel-aeg-sb-20/manufacture/herz/
http://sute.ru/category/frezery-vertikalnye//all/product/frezer-makita-3709/
http://sute.ru/category/frezery-vertikalnye//offset24/product/dewalt-d26200/manufacture/nikon/
http://sute.ru/published/SC/html/scripts///category/nasosy-cirkuljacionnye/marina/
http://sute.ru/manufacture/makita/manufacture/feedback/blog/blog/2/articles/
Через WMT, предварительно добавив в robots.txt
1) Добиться статуса 404 или 410 (код ответа сервера).
2) При этом не закрывать в robots.txt, иначе Google не увидит статус!
3) Прочитать три раза, если вдруг руки зачешутся https://support.google.com/webmasters/answer/1269119?hl=ru.
4) Починить движок.
5) Отметить проблему в GSK решённой (не обязательно).
IV-й, в robots.txt просто указать Disallow и через раздел "Удалить URL-адреса" перечислить ссылки?
aldous, еще бы понять откуда такие ноги растут, как-то хоатично он добавляет, то в категории, то в производители, то в страницы(
После того, как сделаете, потом не жалуйтесь, что пошла сплошная кривизна, и ссылки намертво засели.
Матчасть по функционированию robots.txt. Удивительно, что robots'ом практически никто не умеет правильно пользоваться.
Если что и можно заблокировать в robots.txt - это потенциально будущий мусор. Однако от него разумнее избавляться - делать удалённым (410) или (если это дубли), использовать канонизацию ссылок (как у ebay, нежелательно).
так я для избежания проблем и задал вопрос.
Дали ответ я переспросил для уточнения.
Как говорится лучше сто раз проверить и 1 сделать
Рекомендую послушать aldous. Ненужные страницы должны возвращать 410 или 404, более ничего не надо делать.