Антоний Казанский

Антоний Казанский
Рейтинг
787
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
vitaliy999 #:
От переизбытка рекламы тоже выкидывает как "Недостаточно качественные"

Могу ещё рабочий пример привести. Есть ряд сайтов разного уровня проработки. Есть группа сайтов, где трафик единичный, текущих рабочих планов на сайты нет, сайты просто стоят. Без трафика страницы начинают отваливаться по НКС, наглядный пример, https://clip2net.com/clip/m326754/70a3f-clip-5kb.png?nocache=1

Начинаю добавлять трафик (причём не на целевую страницу, а на Главную), также страница (и еще группа других) возвращаются https://clip2net.com/clip/m326754/cd8a5-clip-20kb.png?nocache=1

Страницы естественно не менялись, информация не добавлялась. Входящие изменения - только трафик.

Так что на пограничные решения качества страниц напрямую также влияют и хостовые характеристики. 

vas80 :
Но принципиальный вопрос в том, могут ли существовать страницы без трафика на сайте и приносить пользу, или хотя бы не вредить?

Могут конечно. Если хостовые характеристики сайта слабые и нет представления как развивать видимость сайта по текущему запросному индексу, то сайт, независимо от НЧ и перелинковки может быть невостребован - не иметь показов, не иметь кликов и как следствие - не иметь поискового трафика.

h0tah5 :
- но сейчас я понял, что хочу, чтобы добен был все-таки в зоне .ru, но отличный от первого (т.е. третий вариант вообще), как мне правильно поступить, чтобы меньше всего "выбесить" поисковые системы и перейти на этот домен с наименьшими потерями?

Попробуйте перечитать предложениe и выразиться более ясно. Какой третий? Какой "этот"? Вас сложно понять.

Поисковые системы не бесятся, поисковые системы работают с той информации, которую вы предоставите. Им всё равно.

Правильность можно оценить только при понятно изложенной задаче. 

TpaBkuH #:
У меня информационный сайт. И объективно, выкидывает хорошие страницы со статьями. Уник, со списками, заголовками, фото и т.д.

Трафик на страницах есть? 

Vladimir #:
Думайте дальше, написал черным по белому - Яндекс игнорит robots.txt, если  есть связка метрики и вебмастера.

Такого быть не должно и здесь нужен правильный порядок действий.

Файл robots.txt определяет базовые правила индексации и ни Метрика, ни Вебмастер переопределить их не могут. 

Если Яндекс игнорируют правила robots.txt, значит нужно писать в Яндекс и разбираться. Может быть вы неправильно составили инструкции, а может быть и проблема на их стороне - здесь надо конкретно разбираться. Допускаю также, что временно у Яндекс могут быть проблемы и косяки с учётом правил, значит нужно обратить внимание техподдержки на этот счёт  и быть с ними в диалоге, ждать решения данного вопроса. Остальные рекомендации с Last-modified здесь действительно уже неактуальны.


Vladimir #:
Какой  last-modified отдаст ваш сайт на страницу  /audit-sajtov?utm=avito ? Вы не ответили.

Это одна и та же страница, значит при настройке last-modified сервер вернет роботу те же данные. Приведенный адрес - это вариация адреса с рекламной utm меткой целевой страницы. Меток может быть множество и они определяются настройками целей. Я уже говорил - базово их нужно запрещать для индексации. Если при правильных инструкциях в robots они продолжают попадать в индекс - писать в тех. поддержку. 

Рекомендация last-modified касается исключительно целевых полезных страниц, для того, чтобы при каждый итерации робота, он правильно расставлял приоритеты и корректнее индексировал новые данные, которые добавляются на сайт.  Аномалии в индексации last-modified не решает, равно как и <lastmod> в XML карте - их функция - корректная передача дат обновления страниц для оптимизации поисковой квоты в процессе индексирования. 

Владимир, вы вновь перепутали контекст моего ответа. 

Vladimir #:

Я вам про метки писал, вы мне в ответ ересь, и типа что у вас все на мази.

В данной теме вы мне не писали и это мой первый ответ вам на вашу цитату. Причём тут мазь и зачем так горячится - мне непонятно.

Здесь вы ответили своему тёзке и в ответе была цитата,

Vladimir #:

новые страницы игнорит, а те что не существуют пачками индексирует. 

вот применительно к этой проблеме я и дал свою рекомендацию. Она касается вопросов приоритетного индексирования. Не верите мне, почитайте практику использования данных настроек и станет понятно.


Vladimir #:

Как вы думаете, какой  last-modified отдаст ваш сайт на страницу  /audit-sajtov?utm=avito

И думаю, и уверен, что все рекламные метки должны быть запрещены для обхода и индексирования через robots.txt директивой Сlean-param для Яндекса и можно настроить Disallow для Гугла. Индексироваться страницы с дополнительными параметрами от рекламных меток не должны.

Xubart #:

Сам не крутит.  Траф виден (не подробно, но точно зная сколько должно быть на текущий момент при таких позициях, выводы сделать не сложно).

Были бы боты - счетчик раза в 3-4 больше бы показывал.

Тогда подождите, если сайт только зашёл в топ, то возможно у него всё ещё впереди :)

Xubart #:
Чудеса. Конкурент вылез резво так в ТОП1-5 по всем запросам из 3-5 и собирает сейчас шикарный траффик - ни одного бота нет.

А как вы определили, что в будучи в топе у него нет ни одного бота? У вас есть детализированный доступ к его статистике? 

Если он резво вышел в TOP5, возможно он сам крутит и перекрывает текущий объем ботов.

Vladimir #:
А так да, новые страницы игнорит, а те что не существуют пачками индексирует.
Потом, частично выкидывает, затем заново индексирует и так по кругу.
На этом примерно половину мощностей Яндекса можно было экономить

Настройка ответов last-modified должна помочь. И корректное соблюдение lastmod у xml карты.

Vladimir SEO #:
у меня уже два месяца висят 20к 404 ,  тупо не вылетают даже

Яндекс фиксирует 404 ошибку и не удаляет из индекса?

Всего: 12575