And-rey

Рейтинг
78
Регистрация
01.04.2012

Miha Kuzmin (KMY), Может и упустил, зачем для ТС это всё вообще. А так -

...прописывается класс и data-link="", а уже js скриптом это все дело для пользователя переделывается в обычный a href.

Тоже самое проделает и браузер-рендер от ботов гугла (или что там еще). Потому считаю что боты получат ссылку.

AVMSEE:
Закройте от индексации файл JS, который формирует ссылки, чтоб ПС их не нашла.

Да мне кажется что всё они видят и считывают. То просто в индекс такие страницы не добавит, так как в robots.txt стоит запрет доступа и сообщит об этом в разделе "Заблокирование ресурсы". Не известно ведь никому, что они там умного напихали в свой Пингвин. Возможно наличие линка хоть в ноуфолоу, хоть появляющегося после 5 сек через JS - видит.

Хотя экспериментировать надо.

Надо было у этого "Гарри и Ко", спросить как они это себе представляли и продолжают представлять дальше:


• Создавайте страницы в первую очередь для пользователей, а не для поисковых систем.

• Не вводите пользователей в заблуждение.

• Старайтесь не прибегать к уловкам для улучшения рейтинга в поисковых системах. Руководствуйтесь золотым правилом:
- если вы можете без труда объяснить владельцу конкурирующего веб-сайта или сотруднику Google целесообразность ваших действий с сайтом, значит вы на верном пути.
Кроме того, полезно задаться вопросом: нужно ли это пользователям? Стали бы вы так поступать, если бы поисковых систем не существовало?

• Задайте себе такие вопросы: чем уникален ваш сайт, что делает его полезным для пользователей, почему они возвращаются на него снова и снова? Ваш сайт должен выделяться среди конкурентов?

))

Эта рекомендация-троллинг у них висит в справке Гугл уже более 5 лет :/

А по сабжу... Ну понятно что HTTPS и мобильный дизайн/сайт - в первой десятке среди основных факторов ранжирования. То что мы видим иногда в ТОП-выдаче сайты с загрузкой по 6-8 сек, кучи ошибок по валидатору кода (иногда и до 500 ошибок попадаются сайты).. но они всё одно в ТОПе - это всё результат ссылочного фактора и многолетнего авторитета ресурса. Яркий пример тому любой интернет-магазин электроники или другого чего. Проведя ему выборочно аудит по seo-оптимизации... глаза на лоб вылазят от результатов теста и вслух задаешься вопросом "Как оно вообще есть в ТОП?!" :D

Словом, надо было что-то ответить инженерам от Гугл, вот они и ответили. А по факту и на деле, они там и сами толком не знают чего сотворили в итоге с этими Пингвинами и Пандами, как они работают: сами по себе, или по планам гуглоидов.

Все эти страницы закрыты тегом noindex, follow. Ну и пробовал закрывать все в robots.txt.

Зачем же follow? Гугл их не индексирует, встретив noindex но по ссылкам на этих страницах, делает переходы из-за вот этого follow Видать думает, что это всё-таки нужные страницы сайта))

А через robots.txt особо не рекомендуется. Там долго висеть будет сообщение в выдаче на страницы с запретом на них в robots.

Что еще можно попробовать:

- средствами php или в .htaccess реализовать в заголовок сервера "команду" X-Robots-Tag (https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag?hl=ru);

- удалить вообще раздел/категорию на сайте, где лежал копипаст. И вообще, удаляйте их физически, нужен срочно сигнал дать 404;

- создать карту сайта со страницами которые не желательны, но закрыть их или удалить физически. Картой скормить Гугл в консоли;

- приглашать гугл-бот на переобход сайта, указав сканировать карту сайта (не путать с картой sitemaps.xml)

AdelinaHost:
Урл чужого сайта добавить в аддурилку:)

😕

как вы собрались попытаться добавить через google.com/webmasters/tools/ чужой домен-адрес страницы?

Пробовал, не особо эффективно

=( это просто эпик какой-то. О чём тут речь вообще, что за тролинг?

Mric:
Стало ещё хуже, теперь он просто не ходит по страницам в сайтмапе и вообще не выкидывает ничего=(

А как и что, вы там закрыли у себя по рекомендациям выше?

Весь сайт тегом "noindex" или в "robots.txt Disallow: /" ? =))

Поставил мета тег роботс в noindex, удалились 2 млн. страниц за 2 месяца и осталось ещё 500 тыс.,

Вот у вас там несколько странное желание удалить из индекса, что зашло однажды неплохо ( вообще редкость большая когда, гугл более 2млн. страниц глотает). Одно дело страницы эти не существуют вообще физически, а когда они есть, но не индексировать их, то не факт что на фоне "многомиллионности" страниц сайта, всё исчезнет мигом. Они же всё одно у вас есть доступные по url, известными ранее для гугл. Он их продолжает видеть как 200 OK.

Т.е. в чём сама причина/желание удалить проиндексированное, что там такое у вас: неинтересные статьи, или это мусорные страницы пагинаций, фильтров, сортировок?

...не знаю. Пока придерживаюсь мнения, что в этой разнице, когда по доменному имени и по IP доступные разные ресурсы - это есть большой косяк. Не известно что вообще с тем левым ресурсом, доступным по iP-адресу. Как он продвигается и какая ситуация в ПС с ним.

Надо тогда без раздумий брать выделенный от всех левых, свой отдельный IP-домена 🙅

Странно. У каждого из нас есть номер мобильного, номер сетевой карты в компе - это всё уникально. Никто другой за эти номера не отвечает, кроме нас самих. Почему же с доменами такая каша: IP и его написание на латинице... это совершено разные ресурсы. Как в моём случаи.

Тогда здесь есть не то что проблема, а глобальная проблема с ранжированием. Так как возможно ПС в своих индексах поисковых баз помечают ресурсы по IP, а не как люди их пишут - mysite.com...

ziliboba0213, оно когда проблемы с ранжированием, сайт долго не лезет в ТОП вообще, тогда начинается ручной анализ по чек-листу от Гугл.

Дошёл до этих пунктов:

141. Таргетинг по местоположению: Google отдает предпочтение сайтам с локальным IP и сайтам с национальными доменами.
.......
188. Помеченный за спам IP адрес сайта: Если IP вашего сервера было помечено Google за спам, это может навредить всем сайтам находящимся на данном сервере.

потому и поднял эту тему на форуме. Я понимаю, то всё незначительные рекомендации и не факт что возможны проблемы и из-за этих пунктов. Но самому интересно: как ПС у себя в алгоритмах отмечают сайты - по их IP или по имени на латинице?! ))

ziliboba0213:
https://2ip.ru/domain-list-by-ip/

Или я что-то путаю?

Хостер правильно отвечает, вроде :)

В том-то и "фишка", что сайтов соседних на одном IP, тот сервис 2ip.ru показывает что у нас вообще нет. Возможно будут вскором, кто пожелает воспользоваться услугами хостера голанского.

Да и фиг с ним если даже и были бы. Но откуда сайт-конкурент лезет по IP-адресу моего домена?!

Всего: 439