Road to Hell

Road to Hell
Рейтинг
49
Регистрация
25.01.2021
yu-ooo #:

На данный момент вроде нужно стремиться повышать DA (Domain Authority). Хотя скорее всего DA скоро тоже переименуют во что-то схожее по смыслу.

бггг DA, DR, TF и другие, это все метрики которые придумали сервисные компании в качестве замены PageRank, выпиленной Гуглом в бородатом 2016, а повышаются они все одинаково, через покупку ссылок

у DA самый понятный алгоритм из всех этих поделок, на него единственно можно ориентироваться при выборе донора

Виктор Петров #:
Нет, я имел в виду, что важен факт, что хост А вообще ссылается на хост Б, качество ссылающихся хостов и их количество. Не факт возможности перехода по ссылкам и не качество трафика по ним (выборки там всё равно смехотворные

Это не так, от слова сОвсем ... вот у меня иногда бывает отваливаются некоторые некоторые доноры из SC, по причине выпадения из индекса страницы с ссылкой, при этом я не заметил каких-то особых особых корреляций, это может быть даже жирный (DA70+) новостной сайт, но это никогда не домен, дающий живые переходы хоть и в ничтожно малом количестве! И второй момент. Я отвалившиеся доноры возвращаю в стойло обычной имитаций живого перехода по ссылке ... Короче не нужно забывать что ссылка находится на странице, которая может тупо выпасть из индекса если ее не будут запрашивать у сервера, поэтому непосредственно по ссылке может и не нужно ходить (что еще вопрос), но вот ходить по странице где находится ссылка точно нужно, чтобы была связь хост - хост.  


Виктор Петров #:
В Гугл чаще говорят о "сигналах", и они вовсе не измеряются так буквально

По умолчанию индексируются все ссылки. А если ты хочешь сказать Гуглу не индексировать какую-то страницу, ты прямо указываешь ему такую директиву через noindex. А с этими метриками может быть точно такая же история. Типа если хочешь не учитывать какое-то гео - пропиши соответствующую директиву в .htaccess. Я уверен эти метрики принимают участие в ранжировании, даже если они не существуют в виде отдельно взятых факторов связанных с поведением пользователей на сайте (кто это докажет?), то к контентной группе факторов они точно имеют отношение. Опять же, как оценить качество контента, юзабилити пользовательского интерфейса и важности сайта (раз основная масса все равно продолжает жрать кактус если сайт неудобный но тупо нет альтернативы), без времени проведенном на сайте и глубины просмотра.

Виктор Петров #:
В гугл нет никаких ПФ.

не понял с первой же строчки ...  без обид конечно, но сеошники всегда так отвечают что ни хрена непонятно ))

Мы говорим об одном и том же ПФ (поведенческих факторах), которые среднее время сеанса, глубина просмотра, процент отказов и т.д? .... Если да, то я почти уверен что они все еще существуют, здраствуют и принимают участие в ранжировании, даже после первого зашквара гугла с ними времен 2015-26 годов. И появления Search Console Insights, чтобы дать кожаным человекам представление о ПФ тому самое подтверждение. Зачем бы Гугл поднимал и содержал веб-инфраструктуру на десятки тысяч долларов (представьте какой там счет только за сервера), чтобы просто дать посмотреть какие-то беспонтовые циферки?  

Виктор Петров #:
Ссылки просчитываются по хостам, блокировки не имеют к ним ровно никакого отношения

Кхм ... в большинстве случаев хост и доменная зона будут совпадать, в смысле если у сайта доменная зона .uz то и хост его 95% будет иметь прописку этой страны .... или вы хотите сказать что будет играть роль только хост переходящего по ссылке, будь то хост веб клиента браузера или хост робота? Ну это смелое заявление.

Из 500 шлаковых доменов, которые мне дали на выбор, натужно набрал 15 доноров. Через 3 месяца после размещения 8 доменов уже отвалились. Бесполезная трата времени.
webinfo #:

Опять же показатель того, что Вы не умеете читать. Даже не можете понять разницу между понятиями "будет" и "есть". Вам надо работать над собой, шлифовать умение анализировать информацию и умение логически мыслить.

бггг .... я оговорился между "будет" и "учитывается" а вы уже поспешили использовать это как аргумент ... фальстарт однако вышел .. очень слабо 

webinfo #:
И да, если для Вас мнение Джона Мюллера - это "чешут языками", то даже уже и не знаю, что про Вас подумать...

бгггг .. вы походу и в Ктулху уверуете если какой-то крендель из Пало-Альто на обстяге об этом в твиттер черканет 🤣

про то что скорость загрузки страниц будет учитываться при ранжировании в Калифорнии трещали еще в 2012-13 годах .. а по факту этот функционал появился в серч консоле только в 2018, если мне не изменят память

webinfo #:

Я выше процитировал Джона Мюллера. Так что никакого поворота, едем по прямой.

ну вы прям капитан очевидность, я не знаю кто вам 48 лайков наставил, вы же по существу ничего ответить не можете ... а то что они там в  Пало-Альто языком чешут, это вообще может ничего не значить, или будет актуально через 3 года. Я проверил на практике и поделился с людьми, мне не жалко, я ж не второсортный сеошник чтобы обламываться кому-то помочь 

Махмуд Аббас #:

Да хз, Гугл щас полумертвый в плане индексации/переиндексации. Я вот щас запиливаю вариант с гугл-апи, т.к. другие варианты уже испробованы. Если и это не поможет, тогда останется только камлать. Хехе.

P.S. Там ограничение кажись 200 урлов/сутки, в твоем случае, если это ВНЕЗАПНО сработает, всего-то 10 дней понадобится.

100 отдельных урлов либо десять корневых улов было еще при Царе баяне .. гы гы .. года 3 назад, с тех пор резали лимиты 2 раза как минимум ... сейчас около 10 урлов, не больше 20 это точно 

Шоу маст гоу он ...

Робот таки проиндексировал новый шаблон robots.txt и стало возможным проверить пару догадок.

Вывод №1.  Для того чтобы робот увидел  <meta name="robots" content="noindex, nofollow" /> таки нужно удалять соответствующую директиву из robots.txt   

Было

-----//-----

Стало



Вывод №2.  В обоих случаях робот продинамил canonical, по факту он стоял с этого урла. Судя по другим моим данным из серч консоль, робот видит canonical только если разрешено и сканирование и индексирование.  При таких раскладах нужно выбирать между canonical и noindex. Вот это поворот! Ну тут очевидный выбор за noindex.

-----


Не знаю даже, есть понт задавать такой вопрос здесь ... ладно, может тут все таки есть seo-монстры 😁

Вопрос в общем такой - эти мусорные страницы, которые формируются GET-параметрами, уже попали в индекс ... как бустануть их массовое повторное индексирование? Сейчас, с лимитом в около 10 ссылок на день для переиндексации через серч-консоль это полная борода, у меня таких страниц почти 2К


kustov #:

Стесняюсь спросить как Вы этот "шлак" блокировать собрались?

.htaccess   через user-agent... с ботами это работает (PS. это мой проект, мой сервер, и я естественно вижу логи). 

на этом форуме как обычно, задают вопросы тебе а не ты

Всего: 251