- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
остатки старого сайта, которого нет уже два года как до сих пор болтаются в индексе яндекса в виде несуществующих ныне url.
вид у кривых урл такой:
www.site.ru/p=123
Добавил несколько месяцев назад в robots.txt запрет на индексацию следующего вида:
User-Agent: *
disallow: Disallow: /?p=*
однако яндекс чего-то не обратил на это внимание. Сейчас попытался через панель вебмастера удалить ненужное, однако к моему удивлению панелька сообщила, что для удаления из индекса подобных урлов "нет основания, так как не выдает 404 или нет запрета в роботс.тхт".. но запрет то есть!
вот сейчас думаю, как бы через htaccess заставить сервер выдавать на запрос урлов вида www.site.ru/p=* ошибку 404, чтоб уж наверняка.. А то сервер настроен так, что по умолчанию все 404 редиректит на главную..
никто не знает что нужно прописать?
Сейчас попытался через панель вебмастера удалить ненужное, однако к моему удивлению панелька сообщила, что для удаления из индекса подобных урлов "нет основания, так как не выдает 404 или нет запрета в роботс.тхт".. но запрет то есть!
у меня тоже была подобная проблема, нужно было удалить урл закрытый в роботсе. платон помог после письма.
причем тут платон? Это вообще должно работать автоматом. Я задолбаюсь платону копипастить все урлы, которые нужно удалить.
хотя конечно напишу щаз в суппорт, что за хрень.. но так дела не делаются.