- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет. Подскажите, пожалуйста, товарищ интересуется, а я не знаю.
Есть site.ru
Он обнаружил что каким то боком поддомен tratata.site.ru вошел в индекс, полностью продублировав сайт. Само собой сайт качнуло, и не хило, в 200е позиции. Как то можно закрыть индексацию любых поддоменов сайта?
Спасибо
зы говорит никаких поддоменов не создавал. что за фигня не понятно.
ну как бы как всегда - тег ноиндекс , в гугле удаление
потом роботс еще есть и канонинкал
ну как бы как всегда - тег ноиндекс ,
документа нет куда его впиливать.
в гугле удаление
ясно, потом опять вернется... надо что то иное.
потом роботс еще есть
понятно. это рекомендация, может и не сработать. но скажу чтобы там прописал.
и канонинкал
аналогично. это рекомендация, может и не сработать. но скажу чтобы там прописал.
не очень понятно от куда поддомен взялся, и как его выпилить по шустрому. Куча дублей в индексе )
---------- Добавлено 23.10.2019 в 10:34 ----------
Единственное могу добавить, вот он прислал - появились какие то новые записи в htaсcess (раньше говорит их не было), это что такое кто знает? Спасибо
RewriteCond %{REQUEST_URI} !^/[0-9]+\..+\.cpaneldcv$
RewriteCond %{REQUEST_URI} !^/[A-F0-9]{32}\.txt(?:\ Comodo\ DCV)?$
RewriteCond %{REQUEST_URI} !^/\.well-known/acme-challenge/[0-9a-zA-Z_-]+$
RewriteCond %{REQUEST_URI} !^/\.well-known/cpanel-dcv/[0-9a-zA-Z_-]+$
RewriteCond %{REQUEST_URI} !^/\.well-known/pki-validation/(?:\ Ballot169)?
RewriteCond %{REQUEST_URI} !^/\.well-known/pki-validation/[A-F0-9]{32}\.txt(?:\ Comodo\ DCV)?$
ясно, потом опять вернется... надо что то иное.
откуда такая глупая инфа ? )))
---------- Добавлено 23.10.2019 в 10:41 ----------
понятно. это рекомендация, может и не сработать. но скажу чтобы там прописал.
все работает )))
---------- Добавлено 23.10.2019 в 10:41 ----------
аналогично. это рекомендация, может и не сработать. но скажу чтобы там прописал.
я если честно иногда сильно удивляюсь как вы вообще с сайтами дела делаете , ну не ваше это явно
я если честно иногда сильно удивляюсь как вы вообще с сайтами дела делаете , ну не ваше это явно
Вы на дороги посмотрите, кто там ездит.... ну а так вы конечно правы - сайты, это не мое.
---------- Добавлено 23.10.2019 в 12:31 ----------
А по существу, Владимир, Вы видимо не получали страницы пагинации в индексе, при том что явным образом указана каноникал.
Ребят. Ну подскажите, плз, как можно быстро выкинуть поддомен из индекса?
По одному урл можно, но может быть есть способ не забивать 100500 урлов поочереди (уходят из базы в течение суток), а как то сразу весь подомен? Спасибо
Ребят. Ну подскажите, плз, как можно быстро выкинуть поддомен из индекса?
По одному урл можно, но может быть есть способ не забивать 100500 урлов поочереди (уходят из базы в течение суток), а как то сразу весь подомен? Спасибо
про гугл уже сказали. - а в яндексе по одному урлу и роботс на переобход, но быстро не получится
Спасибо. В гугл этот шлак не вошел, а вот в яндексе есть. Ясно.
Месяца 2-3 предполагаемые сроки, да ведь?
откуда такая глупая инфа ? )))
Наверное эта "глупая инфа" отсюда: https://support.google.com/webmasters/answer/1663419?hl=en
robots.txt тоже мимо*– если Вы поставите там disallow, то гугл просто не будет заново парсить эти страницы, но в индексе они останутся. Более того, самое обидное будет когда человек добавит 301 редирект, а гугл этого не увидит потому что запись disallow в robots.txt мешает ему скачать страницу. Я пишу из опыта – похожая проблема была, только не с subdomain, а со слешер в конце ссылок.
Как мне кажется самый лучший алгоритм действий такой:
1) Проверить чтобы все ссылки на сайте были правильными и вели на нужные страницы
2) Сделать чтобы все ссылки с subdomain делали 301 редирект на site.ru (я почти уверен что это можно сделать в .htaccess)
3) Перепишите свой sitemap.xml и вставьте в него только ссылки с tratata.site.ru которые гугл проиндексировал. Он тогда быстрее по ним пройдется и увидит 301 редиректы.
Подождите пару недель. После этого заходите в search console и смотрите в ручном режиме какие старые ссылки остались в индексе. Их уже должно будет быть не очень много. Начинайте вручную просить гугл переиндексировать их.
Когда закончите весь процесс – не забудьте вернуть sitemap.xml в правильный вид :)
Фуфуфу ломать основной сайтмэп. Можно наклепать отдельный sitemap_sub.xml и скормить ПС через GSC.
А ещё лучше - всё страницы субдомена - 301 редирект на основной, а sitemap поддомена - просто не трогать и пустить в переобход.
откуда такая глупая инфа ? )))
---------- Добавлено 23.10.2019 в 10:41 ----------
все работает )))
---------- Добавлено 23.10.2019 в 10:41 ----------
я если честно иногда сильно удивляюсь как вы вообще с сайтами дела делаете , ну не ваше это явно
Фуфуфу ломать основной сайтмэп. Можно наклепать отдельный sitemap_sub.xml и скормить ПС через GSC.
А ещё лучше - всё страницы субдомена - 301 редирект на основной, а sitemap поддомена - просто не трогать и пустить в переобход.
Да, согласен, метод спорный :) Но в некоторых случаях допустим:
1) Страницы из старой сайтмапы уже наверняка все в индексе. Так что их временное исключение не приведет к колоссальным потерям
2) Когда гугл решит пройтись по страницам из сайтмапа – если там 100% страниц по которым мы хотим чтобы он увидел редирект, то он будет подхватывать ридирект на каждом просмотре страницы из сайтмапа. Если же в нашей сайтмапе 50% нормальных страниц и 50% с 301 редиректом – частота попадания гугла на страницу с редиректом будет меньше)
Возможно моя логика на счет пункта 2 неверная. Но я так когда-то делал и не увидел никакой катастрофы – все старые страницы и так остались в индексе, поэтому мне кажется что как временная мера она допустима.