Alfinnov

Рейтинг
123
Регистрация
07.01.2010

Така-же фигня и под гуглом как и по яндексу, в плане ранжирования поддоменов по городам. В яндексе только ты привязываешь сам домен к городу, гугл подхватывает сам (в консоли нет возможности привязать).

Только вот при переезде на https (а его таки делать придется со временем), для поддоменов придется либо свои сертификаты выпускать (под каждый поддомен), либо один дорогой покупать с wildcard`ом - расходы :/

А вот под сайт.ру/город/ - достаточно будет любого самого дешевого сертификата ...

хмм, улетело по основным проектам, буду надеяться что вернется

Поглядите чего скажет https://gtmetrix.com/ и по его рекомендациям тоже пройдитесь, может что-то найдете еще =)

Прогоняю сетку сайтов (с которой двигаюсь) эпизодически, с виду польза только для ТИЦ и всё, баны пока не получал, на позицию этих сайтов в целом положить.

тематика у нас сложная есть, в ней только своими сайтами двигаться

Поглядите, не меняется ли релевантная страница в выдаче по запросу, бывают забавности что страница в выдаче меняется - и ппц позициям,потом назад -и снова всё хорошо.

было так на проектах, помогает перелинковка и вообще редактирование контента на релевантных

Вроде как поисковики отделяют блок контента от блока меню/шапки и подвала.

и при анализе по сути участвует контент, а не навигация. навигация для перелинковки по сут идет только.

-> не парится, и заниматься контентом

я по твитеру прогоняю в паралель, всё быстро заходит

сетка не перелинкована между собой.

Всё зависит от тематики сайта ...

иногда на главной достаточно текста на 1k символов ... просто главное на сайте каталог товара и текстовки уже внутри каталога идут

если же сайт информационный - то текст должен быть от 2k+, структурированый с картинками итд

Ох ...

по номральному 1 странице - 1 фиксированный URL

по этому

Полчается, что можно запросить http://site.ru/index.php?id=page, http://site.ru/page/, или даже вообще http://site.ru/любая_фигня/page/ - всё равно попадаем на главный url http://site.ru/razdel/page/

сразу не верно.

я бы сделал так:

?id=* - закрыл через robots, и сделал бы редирект (301) с них на нормльный чпу адрес

сайт вычистил от таких ссылок (с ?id=*), на страницах с чпу проспиал canonical на этот же адрес

и дальше ждал когда ПС выкинут старые ?id= из поиска.

это было-бы наиболее правильное решение с точки зрения ПС

---------- Добавлено 21.08.2017 в 11:57 ----------

ну и дальше, разделы которые не нужны, через robots закрываем,

и всё, корректно решена ваша задача

За 6 месяцев фильтр снять не удалось, помогло переезд на новый домен. После переезда - санция на новый домен не переползает =)

Всего: 200