genjnat

genjnat
Рейтинг
230
Регистрация
08.10.2008

Ну что вы упираетесь... Сайт вообще не оптимизировался, никакого ссылочного. Как ребята запилили, так и есть. Конкурентов на своих CMS под эти же запросы хватает.

И он их вполне себе обходит... Почему вообще от конструктора (это таже CMS) должно зависеть ранжирование?))

Опять вы со своей категоричностью...)))

Это не ВЧ но коммерческие и конкурентов на своих CMS достаточно, регион МСК.

Сайт на тильде. Отправил в ЛС

xVOVAx:
ну если на поддомене тиу найдете в топе по вк хоть один сайт - маякните нам ))

Понятия не имею за тиу, но на конструкторах вообще нормальные сайты делают. Все от прямоты рук/возможностей конструктора. На тильде например делают отличные сайты, можно подключать свой домен. ранжируются ни чуть не хуже чем на любой другой CMS.

не понял, в чем проблема в присвоении региона для поддомена. Если его можно подтвердить в я-вебмастере.

Другое дело что ограничения по функционалу, за любой дополнительный тянут деньги, сайт от туда обычно хрен заберешь или только в виде файлов... За приличный сайт на той же тильде возьмут не сильно дешевле чем за сайт на своем хостинге и CMS... Просто нет смысла.

aleksandrbol, допустим это объективные цифры. ОК, аналитика 1,5, + GWT = 1,7. А если метрика 1,5 + аналитика 1,5 + например адсенс (загружаемые через GTM), + GWT = 6.0, или все равно 1,7 или 2,5, или...? :)

Я про это. И еще, если какой-то из скриптов навернулся и сильно тормозит сайт, через GWT он также будет тормозить?

А по совокупности, если через него все сторонние приблуды ставить?

Себе хочу понять, вы разделяете вес этих кодов (дополнительно загружать), и скорость с которой их отдает сервис? Потому как код GWT весит 2 кб.

После того как GWT загрузился, скорость загрузки всех приблуд которые в него напихали, уже зависит от скорости GWT, или по прежнему каждая от самой себя?

По факту, подгружаясь через GWT, скорость их загрузки (не их когда, он весит ерунду) влияет на скорость работы сайта, или асинхронная?

GTM?

Это как бы вопрос. Установка через тег менеджер дает какие-то плюсы в скорости, кто-то отслеживал?

xVOVAx:

как всегда в точку

Опять категорично и опять с разворотом на 180...1, 2, 3, 4...

У вас видимо есть опыт, но не даете себе труда вдуматься...

Как убрать пагинацию для яндекса вообще не вопрос. Вопрос, как это сделать не ухудшив глубину и частоту сканирования и не срезав факторы на страницах пагинации. Это "в точку" их решает лишь на половину. И то не факт.

Я примеряю на конкретный проект. Пагинацию там вообще не закрывали. 100к+ страниц и полтора десятка региональных поддоменов. т.е. 2 кк. Пока оно проиндексируется через правила на страницах, я поседею... еще раз изменить, наверно не доживу... оно вообще индексируется только на треть.

ПС.

Задачи убрать пагинацию на самом деле тоже нет. Задача улучшить индексацию полезных для поиска стр. и не ухудшив ранжирование категорий... Такой вариант ее не решает, и пока вопрос, является ли наименее плохим)))

Если у вас небольшой сайт, до 1000 стр например. Нормальные контентные страницы, и скажем 5-10% пагинация, и в индексе 98% +\-. То заморачиваться вообще не за чем, достаточно каноникал для обеих ПС.

Тут о больших, за частую среднепаршивых ИМ. На которых, скажем, из 100 к, гугл берет 15, яндекс 45 к (обычная ситуация). При этом, 15% стр на сайте пагинация. Т.е. примерно треть от того что берет яндекс и сопоставимо с тем что считает возможным взять с сайта гугл. В таком случае смысл не пускать пагинацию в индекс наверное есть.

Это правила на страницах. Т.е. начнут работать как только, так сразу после переиндексации. На сайтах в 50-100-200...к через робот текст было бы веселее. Как пример, что может не устраивать)

Мы не рассматриваем вариант ноуиндекс для гугла, и на сколько каноникал для него рекомендательный вообще, для разных ситуациях. Вопрос с пагинацией он решает, на нужную страницу консолидирует… для гугла это лучшее из того что есть.

Давайте что бы опять не запутались… ищем лучшее из того что есть для яндекса, и конкретно для пагинации. Вариант роботс текст + сайтмап, оставляет все те же вопросы и добавляет новых:

1. Запрет через роботс (в отличие от мета) не влияет на квоты сканирования?

2. Не влияет на консолидирование?

3. Для яндекса мета ноуиндекс, фолоу, как и дла гугла со временем становится ноуфолоу?

4. На сколько сайтмап влияет на индексацию и эти самые квоты?

И влияет ли вообще на что-то… ни разу не видел что бы установка сайтмап хоть как-то улучшала процент индексации. И он и так стоит у всех, или почти у всех, поэтому считаем что он есть и при мета ноиндекс, фолоу.

По-моему "бубнов" и "танцев" только прибавляется...

Всего: 2166