- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вроде все уже перепробовал, где-то 6 месяцев ни как не удаляются старые страницы старой версии сайта, https://yandex.ru/search/?text=excomo.ru&lr=45&clid=9582&site=www.excomo.ru а он мешает новой версии сайта на новом домене.
что я сделал:
1. удалил страницы на сайте
2. настроил отдачу 404 ошибки для всех страниц включая главную
3. прописал <meta name="robots" content="noindex, nofollow" />
4. не однократно писал в техническую поддержку яндекса, они там несут ересь про периодическую недоступность robots.txt, и на основании этого якобы не удаляют старые страницы плюс предлагают руками все удалять.
Может у кого нибудь есть идеи?
Да тоже самое. Страницы то удаляются, то опять они же добавляются. Ну хоть удаляются больше, чем добавляются :-) Я правда <meta name="robots" content="noindex, nofollow" /> не прописывал. Они тогда просто не индексируются, и не удаляются. А с 404 удаляются быстрее
Прибейте домен вообще.
Домен не могу прибить он нужен для ns сервера
Дак NS оставьте, а основную А-запись удалите.
2. настроил отдачу 404 ошибки для всех страниц включая главную
3. прописал <meta name="robots" content="noindex, nofollow" />
смысла прописывать запрет в мета на 404 ответе нет
удалить руками в вебмастере
они там несут ересь про периодическую недоступность robots.txt
достаточно частая ситуация
они там несут ересь про периодическую недоступность robots.txt, и на основании этого якобы не удаляют старые страницы плюс предлагают руками все удалять.
Пришлите им скриншот проверки из Яндекс.Вебмастера и соответствующие записи в логах обращения к серверу найдите.
Пришлите им скриншот проверки из Яндекс.Вебмастера и соответствующие записи в логах обращения к серверу найдите.
Если бы я еще логи писал на сервере, я их отключил, чтоб нагрузки не было. Хорошо буду ручками удалять по 500 урл в день.
Палю тему. Пропишите на всех страницах <link rel="canonical" href="http://domain.ru/" /> в <head>.
Выпадет за пару дней.