Miha Kuzmin (KMY), Может и упустил, зачем для ТС это всё вообще. А так -
Тоже самое проделает и браузер-рендер от ботов гугла (или что там еще). Потому считаю что боты получат ссылку.
Да мне кажется что всё они видят и считывают. То просто в индекс такие страницы не добавит, так как в robots.txt стоит запрет доступа и сообщит об этом в разделе "Заблокирование ресурсы". Не известно ведь никому, что они там умного напихали в свой Пингвин. Возможно наличие линка хоть в ноуфолоу, хоть появляющегося после 5 сек через JS - видит.
Хотя экспериментировать надо.
Надо было у этого "Гарри и Ко", спросить как они это себе представляли и продолжают представлять дальше:
))
Эта рекомендация-троллинг у них висит в справке Гугл уже более 5 лет :/
А по сабжу... Ну понятно что HTTPS и мобильный дизайн/сайт - в первой десятке среди основных факторов ранжирования. То что мы видим иногда в ТОП-выдаче сайты с загрузкой по 6-8 сек, кучи ошибок по валидатору кода (иногда и до 500 ошибок попадаются сайты).. но они всё одно в ТОПе - это всё результат ссылочного фактора и многолетнего авторитета ресурса. Яркий пример тому любой интернет-магазин электроники или другого чего. Проведя ему выборочно аудит по seo-оптимизации... глаза на лоб вылазят от результатов теста и вслух задаешься вопросом "Как оно вообще есть в ТОП?!" :D
Словом, надо было что-то ответить инженерам от Гугл, вот они и ответили. А по факту и на деле, они там и сами толком не знают чего сотворили в итоге с этими Пингвинами и Пандами, как они работают: сами по себе, или по планам гуглоидов.
Зачем же follow? Гугл их не индексирует, встретив noindex но по ссылкам на этих страницах, делает переходы из-за вот этого follow Видать думает, что это всё-таки нужные страницы сайта))
А через robots.txt особо не рекомендуется. Там долго висеть будет сообщение в выдаче на страницы с запретом на них в robots.
Что еще можно попробовать:
- средствами php или в .htaccess реализовать в заголовок сервера "команду" X-Robots-Tag (https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag?hl=ru);
- удалить вообще раздел/категорию на сайте, где лежал копипаст. И вообще, удаляйте их физически, нужен срочно сигнал дать 404;
- создать карту сайта со страницами которые не желательны, но закрыть их или удалить физически. Картой скормить Гугл в консоли;
- приглашать гугл-бот на переобход сайта, указав сканировать карту сайта (не путать с картой sitemaps.xml)
😕
как вы собрались попытаться добавить через google.com/webmasters/tools/ чужой домен-адрес страницы?
=( это просто эпик какой-то. О чём тут речь вообще, что за тролинг?
А как и что, вы там закрыли у себя по рекомендациям выше?
Весь сайт тегом "noindex" или в "robots.txt Disallow: /" ? =))
Вот у вас там несколько странное желание удалить из индекса, что зашло однажды неплохо ( вообще редкость большая когда, гугл более 2млн. страниц глотает). Одно дело страницы эти не существуют вообще физически, а когда они есть, но не индексировать их, то не факт что на фоне "многомиллионности" страниц сайта, всё исчезнет мигом. Они же всё одно у вас есть доступные по url, известными ранее для гугл. Он их продолжает видеть как 200 OK.
Т.е. в чём сама причина/желание удалить проиндексированное, что там такое у вас: неинтересные статьи, или это мусорные страницы пагинаций, фильтров, сортировок?
...не знаю. Пока придерживаюсь мнения, что в этой разнице, когда по доменному имени и по IP доступные разные ресурсы - это есть большой косяк. Не известно что вообще с тем левым ресурсом, доступным по iP-адресу. Как он продвигается и какая ситуация в ПС с ним.
Надо тогда без раздумий брать выделенный от всех левых, свой отдельный IP-домена 🙅
Странно. У каждого из нас есть номер мобильного, номер сетевой карты в компе - это всё уникально. Никто другой за эти номера не отвечает, кроме нас самих. Почему же с доменами такая каша: IP и его написание на латинице... это совершено разные ресурсы. Как в моём случаи.
Тогда здесь есть не то что проблема, а глобальная проблема с ранжированием. Так как возможно ПС в своих индексах поисковых баз помечают ресурсы по IP, а не как люди их пишут - mysite.com...
ziliboba0213, оно когда проблемы с ранжированием, сайт долго не лезет в ТОП вообще, тогда начинается ручной анализ по чек-листу от Гугл.
Дошёл до этих пунктов:
потому и поднял эту тему на форуме. Я понимаю, то всё незначительные рекомендации и не факт что возможны проблемы и из-за этих пунктов. Но самому интересно: как ПС у себя в алгоритмах отмечают сайты - по их IP или по имени на латинице?! ))
В том-то и "фишка", что сайтов соседних на одном IP, тот сервис 2ip.ru показывает что у нас вообще нет. Возможно будут вскором, кто пожелает воспользоваться услугами хостера голанского.
Да и фиг с ним если даже и были бы. Но откуда сайт-конкурент лезет по IP-адресу моего домена?!