- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Недавно сделал сайт, добавил на него около 2 сотен новостей, заметил что в выдаче вместо 200 страниц появилось 5000, решил посмотреть что это за страницы.
Оказалось в поиск добавились страницы другого старого сайта с нсом в поддомене, вот пример:
ns1.site.ru и страница такая то, страница такая то, и так около 5000 страниц, из-за этого страницы по вылетали с 20-40 мест на 200 и дальше.
В инструментах для вебмастров гугла пробовал удалять из кэша чере пункт - удалить юрл адреса, но там автоматически в начале юрл дописывается адрес главной страницы, тоесть если вставляю такой юрл ns1.site.ru то он становится таким site.ru/ns1.site.ru
В общем не получается удалять через него поддомены. Сейчас на nsы иправил еще и 301 редирект с них поставил, тоесть не рабочие эти ссылки уже.
Подскажите как удалить страницы с этими nsами из кэша гугл, если никак, то хотелось бы узнать как скоро гугл сам выкинет их из своего кэша?
выкидывает медленно и пачками.
был ресурс на 30 000 страниц, выкинул за пару месяцев, ~ по 1000 в сутки.
чтоб ускорить деяние гугла = выдача 404 + запрет в файле роботс + удаление в гугл вебматере.
если делали сайт на старом домене, то смотрите в сторону .htaccess (может быть скрыт)
site.ru/ns1.site.ru - что-то Вы напутали с субдоменами или то, о чем я писал выше. телепатией тут никто не занимается, дайте больше информации, если хотите хоть частичное решение проблемы.
нет не напутал, в поиске выдаются страницы такого вида
ns1.site.ru, ns1.site.ru/page1, и тд страницы ведущие на другой мой сайт. Но выдаются они на домене нового сайта.
Если удалять страницы из гугла, то там необходимо дописывать все что стоит после главной страницы, а главную страницу гугл сам подставляет в начало.
Тоесть если вписать page1, то гугл припишет ей домен site.ru/page1 и тд.
Но мне нужно удалить страницы в которых перед доменом прописано ns1.
Если вписать в гугл ns1.site.ru то гугл генерирует ссылку как site.ru/ns1.site.ru
А сайт делал на новом домене, когда нсы прописывал сайту, там записи почему то по смешивались у обоих сайтов и гугл начал так индексировать, а яндекс норм. Щас прописал нсы правильно, плюс 301 редирект поставил с этих страниц на всякий случай
ns1.site.ru
А если добавить в панель именно сайт ns1.site.ru?
то есть как отдельным сайтом добавить?
Напишет наверное что адрес не существует, так как его уже нет.
rueen, если домена нет и страниц тоже то просто подождать вылета. Конечно неприятно смотреть на пачку сообщений о 404 но что делать?:)
ну придется ждать, просто траф поначалу упал, вместо 60 человек с гугла заходило 5-6, сейчас когда все исправил, страницы пока не вылетели, но уже чувствуется, что траф возвращается. Уже по 20-30 челов заходит с гугл
ну придется ждать, просто траф поначалу упал, вместо 60 человек с гугла заходило 5-6, сейчас когда все исправил, страницы пока не вылетели, но уже чувствуется, что траф возвращается. Уже по 20-30 челов заходит с гугл
вместе с ботами 🙄
запретите всё индексировать, удаляйте сайт и ждите.
лучше начать с нуля
ооочень долго могут висеть такие страницы
ооочень долго могут висеть такие страницы
да нет же! если всё правильно сделать, то через неделю начнут отпадать.
главное запретить роботу ходить, закрыть всё от индексации и в панели вебмастера - урлы на удаление (каталог)
Как вариант: выдача 404 + на страницы поставить nofollow, noindex...