ezon

Рейтинг
134
Регистрация
29.02.2012

и в англоязычном не везде... по ходу определенные тематики

avangard:
Не совсем твиттер. но

Во время последней видеовстречи для вебмастеров сотрудник Google Джон Мюллер посоветовал закрывать все ссылки в гостевых постах от индексации с помощью атрибута nofollow.

То есть все ссылки исходящие в нофоллоу?

ага, смотрел эту трансляцию... Это последнее, что будут делать вебмастера, отказываться от этого заработка.

на форуме блога Гугл задали вопрос, как остановить дешевый индийский трафик и на сколько он влияет на сайт...

Джон Мюллер сказал, 1 из вариантов заблокировать индийские айпи на хостинге, но он бы не рекомендовал это делать... ничего плохого в этом трафике нет

Питр Николоу ответил, что в гугл консоле нет возможности блокировать такой трафик, если же Вы уверены, что трафик фейковый, то есть вариант в гугл аналитике разбить по гео и вычислить основные шаблоны (трафик идущий с нескольких айпи с плохими ПФ) и запретить его

Джон Мюллер в Ютубе начал записывать короткие видео ответы на популярные вопросы, как в свое время делал Мэтт Каттс.

Уже выложили 6 коротких видео.

1. Как влияет несколько заголовков H1 на ранжирование сайта? Ответ - абсолютно нормально, если у Вас несколько заголовков H1, поисковик к этому относится абсолютно нормально.

2. Что лучше субдомен (домен 3 уровня) или субпапки (в структуре URL домена 3 уровня). Ответ - поисковик нормально индексирует оба варианта, специально планировать переезд не обязательно.

3. Как восстановить аккаунт в Гугл Консоле, если Вы собственник домена. Ответ - создайте новый и получите полный доступ к информации, которую можно делегировать сеошникам и другим связанным лицам.

4. После того, как убрали ручную санкции в Гугл консоле, сайт полностью возвращается в естественную выдачу или имеет метку "отсидел". Ответ - Сайт полностью возвращается в естественную срезу, на переиндексацию необходимо определенное время. Возможно не все позиции вернутся, но это больше связанно с уровнем конкуренцией и видимостью других сайтов.

5. Гуглбот игнорирует комманду в robots.txt не индексировать элементы сайта? Ответ - не сразу бот реагирует на эту команду, он изучает влияние сканирования на скорость загрузки сайта. Если она замедляется, робот останавливает активность. Дополнительно можно сообщить о проблеме в Гугл Консоле о запрете индексирования определенных страниц. Использования же комманды в роботс абсолютно нормально, эту команду можно использовать.

6. Вступление о серии уроков. 🍿

19 декабря Джон Мюллер разъяснил правильное использование слешей в структуре URL

На примерах показаны варианты, которые играют роль и которые не имеют ни какого значения

PESik:
Если чесно очень сложно понять из чего он берет снипеты иногда, да и ранж такой же. По поводу дискрипшина, мне кажется он занимает процента 3 от всех факторов ранжирования. У меня некторые страницы вылезают в топ 3 со 100 символами текста, в котором практически нет ключей, но некоторые такие же далеко за топ 100...также есть страницы с 5к текста и 3-5 ключами и с такой же процентностью такие страницы есть в топе и за топ 100...

3% тоже не плохо, с миру по нитке... правильно настраивайте schema.org, тогда будет максимально кликабельный снипет

egonika8m:
Получается, что дескрипшн этот учитывается, а то много мнений, что он только мешает

как не прямой алгоритм ранжирования, конечно учитывается, от его привлекательности и релевантности зависит CTR...

Дэнни Саливан, пресс аташе Гугл и создатель Searchengineland, в твиттере сообщил про длину в 320 символов

У моз подобное есть исследование % влияния внешних алгоритмов ранжирования на основании опросов 72 ведущих сеошников...

на первом месте рейтинг донора домена, второе - популярность ссылки на странице, 3 место - это влияние анкоров

семраш не усложняет, жалко не показали в %-м соотношении

Гугл последнее время только адаптив и выкладывает рекомендации, как правильно уйти с мобильной версии - /ru/forum/977104

Всего: 693