timelessness

Рейтинг
126
Регистрация
08.10.2009
Gregor25:
Гугл обрезает результаты выдачи до 5-15 страниц, с чем это связано?

Например:
"news" - 13,450,000,000 results / реально 219
"bitcoin" - 472,000,000 results / реально 159
"viagra" - 127,000,000 results / реально 115

А как ты считаешь, сколько тебе нужно реально результатов по этим запросам? Какой смысл хранить весь мусор?

Гугл уже давно склоняет людей к уточняющим запросам. Он все для этого делает, подсказки, дополнительные блоки и тд.

Домен является EMD к основным ключам?

Был ли резкий прирост низкокачественных ссылок?

Сайт коммерческий или есть информационные страницы?

xoxol4uk22:

Столько труда потратил, имеет сотню тысяч трафика в сутки, а рекламу не вешает..

С чего Вы взяли, что у него такой трафик?

zmicier:
Жесть. В выдаче 90% ( в прямом смысле) доров оказалось формата .xml. (Взломанные сайты). А 5% к теме не имеет прямого отношения. Вот так начали бороться с фармой 🤣 Но перед кем-то снимаю шляпу, кто нашел уязвимость в алгоритме, ща за короткий срок миллионы сделает.

Можно запрос в лс?

Ingref:

Если верить Гуглу, то он уже 2 года как не теряется - /ru/news/31494

Вас не смущает разница 301 редиректа в рамках одного домена с http на https и 301 редирект в разрезе двух разных доменов?)

Я может открою для многих тайну, но сейчас в бурж выдаче попадаются сайты, хостеры которых автоматом перевели их домены на https без всяких 3хх редиректов но сайты остаются на прежних позициях)

autodidact:
например, если закрыть через htaccess бота ахрефса


RewriteCond %{HTTP_USER_AGENT} AhrefsBot
RewriteRule ^.* - [F,L]


то их бот не сможет собирать инфу о сайте к себе в базы и соответственно конкуренты не увидят через ахрефс ссылочного

Все верно, только так закрываются исходящие ссылки, а не входящие.

Если хотите скрыть входящие ссылки, то тут нужно работать только через редирект. Этот файл htaccess размещаете на прокладке с редиректом на основной сайт. Соответственно ссылки должны ставится на прокладку.

Но тут нужно учитывать потерю 10-20% PR при 301.

Romanov Roman:

Идет постепенное уничтожение сайта, причем в обеих поисковых системах одновременно.

Так при чем тут гугл? И вообще, что вы хотите услышать от людей, не пойму?)

Делайте нормальный сайт и все у вас будет ЗА-ШИ-БИСЬ.

edjiek:
На проект стоят ссылки с жирного сайта, однако они видны только в коде. Сам блок со ссылками скрыт от юзера. Там же есть и другие ссылки.
Вредят ли они аксептору, учитывая что сайт действительно хороший?

Каждый сеошник глубоко убежден, что за такое гугл должен неистово наказывать.

Но на практике каждый второй сайт в серьезной нише имеет в арсенале парочку подобных ссылок.

Навредят ли? Иногда слежу за одним проектом с 2013 у которого 20-30% подобных ссылок в том числе с главных страниц. За эти 5 лет было несколько серьезных апдейтов кор алгоритмов, улетела масса сайтов с относительно нормальными ссылками, а этот до сих пор в топ1-3.

Вопрос в уникальности доменов. Все ставят ссылки там "где все ставят", а у этого получается уникальные доноры с разной вариацией интеграции невидимого блока без какого-то одного футпринта.

paniyanovska:
Ну почему тупость? Если отдает 4** ошибку то это одно, а если не доступен, то совершенно другое, спецификацию почитайте.

А как вы считаете, отсутствие файла на сервере это какая может быть ошибка?)

Специально для Вас, любителя спецификаций, цитирую developers.google.com:


4xx (ошибки клиента)
Google расценивает все ошибки 4xx аналогично и предполагает, что действительный файл robots.txt отсутствует. При этом также предполагается, что ограничений в отношении содержания сайта нет, то есть разрешен полный доступ для сканирования. Учтите, что к этому разделу относятся коды ответа HTTP 401 "Требуется авторизация" и 403 "Доступ запрещен".

Диаметрально противоположно тому, что Вы говорите.

paniyanovska:
Вот это зря, про удаление robots.txt, когда он существовал до этого - это равнозначно запрету на сканирование, не удивляйтесь потом, что будут проблемы.

Что за тупость?)

Всего: 517