Provizor-071

Рейтинг
50
Регистрация
05.06.2015
The grand tour
Profin:
Может просто вам забить на альты у иконок в меню?
Зачем они вам? Ранжирование не улучшится от сквозных альтов. Только заспамите.

спасибо за ответ! Как то даже неожиданно, последнее время на форуме как-то мало ответов..)

Я не с целью, чтобы улучшить ранжирование, а с с целью, чтобы оно не ухудшилось. Сейчас пунктов подменю с маленькими иконками 25 + они же в подвале. Выходит, что на каждой странице валидатор видит 50 картинок без прописанных альтов. Это не может отразиться на выдаче?

Tenue:
За прошлый месяц 14,6 уникальных в день, из поиска 5,6 в день.
В текущем месяце 16,7 уникальных в день, из поиска 5,4 в день.

Как-то слабо верится, показатель Alexa аж 21млн (у меня этот показатель 90 тыщ, и то посещаемость куда меньшая).

может каноникал лучше?

---------- Добавлено 26.03.2017 в 14:53 ----------

хорошо, что столкнулся с данной проблемой, почитав интернет, понял, что в robots.txt нельзя закрыть от индексации страницы пагинации. Оставил только

<meta name="robots" content="noindex,follow,"/> с rel="prev" rel="next"

Думаю проблем в данном случае не должно быть

только что проверил данные страницы в гугл консоле Инструментом проверки файла robots.txt - пишет недоступен. Значит все нормально?

Автор, дело в том, что поисковики не вчера придумали. И тот факт, что на многих сайтах главная страница есть динамичной, то есть в определенном месте главной страницы постоянно меняется контент, поисковики это понимают и не могут на такое негативно реагировать. Другое дело, если у вас всегда главная страница была статичной и вы поменяли контент на другой тоже статичный, тогда да, поисковик за полную смену контента будет ранжировать страницу по новому, ведь она будет отвечать новым запросам.

Вот вы сами логично подумайте, могли ли так по дурацки придумать в гугле алгоритмы, что за постоянную смену анонсов на главной совершалось постоянная переоценка контента? Вы просто поставьте себя на место создателя, который старался создать алгоритм, как ля людей. Разве он мог додуматься до такого глупого алгоритма за вполне нормальные естественные процессы на сайте? Также само с дублированием контента, если там пару строк в анонсах дублируется - ничего страшного, ведь это есть на большинстве сайтов, и надо быть идиотом, чтобы создать алгоритм, который за такие нормальные вещи будет наказывать

при чем по яндекс вордстату запрос ремонт квартир - 846000 запросов в месяц, по точному - "ремонт квартир" - 64743

Предлагайте на выбор тематики!

Dirty_Sanchez:
1) Как вы догадались этот вопрос задать в этой теме?

2) 2017 год на дворе, а вы до сих пор вес страниц измеряете?

то есть разницы никакой?

Подскажите, не был в курсе такого тега, как rel=canonical. У меня просто в роботсе закрыты страницы 2, 3 и т.д. Есть ли какое-то преимущество этого тега по сравнению с обычным запретом индексации не нужных страниц. Возможно будет больше передаваться веса?

Сергей Нижегородцев:
Это я понимаю. А польза есть именно от ссылок, а не чего-то другого?

Не скажите. Да и не факт, что ЕСТЕСТВЕННЫЕ :)

1. Качественная ссылка, она и в Африке качественная), то есть если есть качественная ссылка, то она должна нести пользу в какой-то степени.

2. В данном случае я имел ввиду непосредственно естественные ссылки, именно те ради которых гугл и делал алгоритм для дополнительного веса сайту.

Всего: 228