Sezhers

Sezhers
Рейтинг
36
Регистрация
30.11.2015
Должность
SEO
Ezhan:
Я по юности наплодил в webmaster tools дублирующие записи:
www.ox.ee
ox.ee

Как мне удалить ненужные? Никак не могу ни поиском найти, ни в самой системе...

Спасибо.

А зачем их удалять, если они как раз рекомендуют добавлять обе версии?

Не знаю как у других, а у нас с обновлением дизайна на адаптивный, мобильные позиции выросли как на дрожжах. В SEMRush видно как за неделю отслеживаемые ключевые слова выросли в мобильной выдаче со средней 96-ой позиции до 20-ой (в основном за счет ключей, которых не было в топ 100 даже - из них некоторые вошли сразу в топ 10). В десктопной выдаче с 22 до 20.

aldous:
Встречи проводятся каждый месяц, вчера была за февраль, никто не мешал задать вопрос.

Если что ещё есть шанс задать его, сейчас на английском как раз идет - https://plus.google.com/u/0/events/c8aggn2rcp5a916pv3aj9gq646k

dpakyj1a:
время ответа сервера 250мс, а норма гугла ниже 200мс. На сайте есть буквально всё - gzip сжатие, минимум html, минимум плагинов, кэширование статических файлов, короче говоря абсолютно все прибамбасы для как можно скорейшей работы. В итоге получилось 250мс.

Насколько мне известно под "время ответа сервера" имеется в виду время до получения первого запроса, т.е. это не скорость загрузки сайта, над которым вы так усердно старались включая компрессию gzip, уменьшая html и количество плагинов.

https://developers.google.com/speed/docs/insights/Server - тут действительно написано, что желательно не больше 200 мс, но причины совсем другие: slow application logic, slow database queries, slow routing, frameworks, libraries, resource CPU starvation, or memory starvation.

Дело в работе самого сервера, а не сайта.

Provizor-071:
Я говорил во первых за яндекс, во вторых у двоих моих друзей происходит тоже самое, что у меня. так что ваша версия вряд ли правильная...

Так если Вас интересуют позиции в Яндексе, то и тему надо создавать в соответствующем разделе форума. Может там люди лучше помочь с этим вопросом смогут.

danforth:
Да. Вопрос о самом контенте страниц. Advego Плагиатус умеет проверять, но только одну страницу :(
Шариться по сайту он не умеет я так понял.

В таком случае прошу прощения, что не дочитал.

По дубликатам контента на страницах мне ошибки выдает аудит SEMrush.

danforth:
Есть несколько вопросов:

  • Если на сайте есть около 30-50% неуникальных описаний под товарами, чем это грозит?
  • Если сейчас удалить эти описания, станет ли лучше? Многие говорят, что лучше отсутствие описания, чем наличие ворованного. Переписать все описания сразу сейчас не представляется возможным, но могу по чуть-чуть, может так будет лучше?
  • Чем проверить сайт на неуникальные описания, чтобы найти все ссылки с украденным описанием?

3. Смотря сколько у вас страниц, например Screaming From SEO Spider (бесплатная версия) до 500 страниц проверяет. Там очень удобно показывает и дублированные тайтлы и описания, так и те, что превышают длину оптимальную.

Если есть список всех страниц - http://www.exadium.com/tools/metadata/

Если вы переживаете из-за слишком большого количества ссылок, то думаю не стоит.

Тем более, если верить новым рекомендациям для веб-мастеров, их может быть до 2000-3000:

"Проверьте, не слишком ли много ссылок на каждой странице (их должно быть не более двух-трех тысяч)."

(с) https://support.google.com/webmasters/answer/35769?hl=ru

Polonoid:
В чем суть? Кто-нибудь после 16-го заметил у себя изменения?

Заметил, основной конкурент по куче ключевых слов пропал выпал далеко за топ10, и соответственно рост 5% органического трафа с 17го числа.

Dmitri2W:
Ну у меня и сейчас с этим вроде все нормально, т.е. названия, альты, качество хорошее.
Просто думаю, стоил ли их заменять на уникальные (имена и альты останутся прежними), будет ли положительный эффект

Если положительный эффект и будет, то не сразу.

Индексация картинок занимает очень долго, особенно если у вас останутся названия и альты прежними.

Буквально на днях про это писали - https://www.seroundtable.com/google-image-indexing-21533.html

Всего: 202