https://mikfoxi.com/
Google USA колбасит до сих пор (((
https://www.seroundtable.com/google-renting-expert-names-eat-core-algorithm-28342.html
Я считаю что тут чувачок правильно отписался насчет E-A-T. Перевожу:
"Natural Language Processing -- это именно то, что изменило правила игры. Теперь они могут классифицировать контент по категориям. Если Вам не повезло попасть в категорию финансов, медицины, правительственные темы, орпеделенные NLP (Natural Language Processing), тогда Вам потребуется более высокий показатель PR. Это именно то, как они определяют E-A-T. Не существует никакого E-A-T алгоритма, есть лишь алгоритм Page Rank. И теперь, алгоритм PR использует NLP для того, чтобы корректно классифицировать контент на странице и ссылки, ведущие на него.
Лучшее, что Вы можете сделать, если Вы работаете в данных нишах и у Вас упали позиции, -- это забить на такие ниши, они больше не для Вас. E-A-T -- это теперь VIP клуб и он не для Вас. Вы не можете подделать E-A-T, если только Вы не используете недолговечные дропы. Все Ваши ссылки с web 2.0, профилей, комменты, PBN и другие ссылки такого типа больше не помогут."
От себя добавлю, что с момента того как Google убрал тулбарный PR, они ничего не изменили, они просто придумали этому показателю новые названия. В ТОП по прежнему толкают ссылки. Но, несмотря на это, до сих пор есть дыры, позволяющие встать в топ без ссылок, хотябы по НЧ, уже благодаря этому получить естественные ссылки и, далее, двинуться к СЧ и ВЧ (Это и есть единственная выжившая белая схема и я по ней работаю).
Чтобы Google не писал про контент, это всегда для него будет второстепенный фактор (хотя я много лет искренне верил что это не так).
В той же ветке есть фраза:
"Они (в Google) противоречат сами себе. Не так давно они сказали: 'Наша система не может опеределить точность контента'".
https://www.seroundtable.com/google-cannot-determine-accuracy-of-content-28190.html
И далее уже по тексту офф сообщения от Google: "Our systems rely instead on signals we find align with relevancy of topic and authority."
"Вместо этого, наши системы полагаются на сигналы, которые мы определяем наряду с релевантностью темы [запросу] и авторитетности [ресурса/страницы]".
Вот и всё как можно подытожить что такое Google в 2019. За 20 лет ничего не изменилось!
...................
Aviolas, до 2015 делал много... начинал в 2013. Тогда это все работало. У меня причем это всё белые проекты были. А еще были времена, когда в Tumblr был dofollow баг... А еще был Technorati...
Это все не важно, на дворе 2019 )))
И еще раз повторю... я не могу достоверно сказать закрыт доступ MOZ, Ahrefs, Semrush или нет к этим доменам...
Ответ на ТОП должен быть однозначен -- ссылки. Но то что я их не сумел их обнаружить не говорит о том что их нет... Я лишь констатирую факт, что не вижу ссылочного + контент копипаст и ТОП уже 3 года (в очень конкурентной тематике [опять же, судz по ahrefs]), вот и всё.
Aviolas, а Вы, уважаемый, знаете просуществование NGINX?
Я никогда не блокировал бота ahrefs, мне это было не нужно. Я прочитал как ahrefs официально предлагает блочить своего бота. Я написал, что в robots я блокировки не нашел. Я не исключаю, что бот ahrefs заблокирован по-другому. В NGINX это 1-й строчкой делается. Но ни .htaccess в Apache ни nginx.conf я у конкурента посмотреть не могу. Посему делаю вывод из того что имею.
Ееще раз повторяю, если боты закрыты, то и объяснять тут нЕчего -- сработали ссылки. На этом точка.
Если рассматривать вариант, что ahrefs закрыт и потому показывает дичь вместо реального отчета, то там может быть все что угодно. Ссылки бы объяснили всё!
Так как я никогда их робота не банил, я не в курсе что там происходит, каике он дает отчёты. Если он все же какие-то отдельные ссылки, несмотря на блокировку, все же показывает, то тогда нефиг тут думать, тут всё понятно. Значит я просто недооценил конкурента.
Тогда и обсуждать нЕчего. Но что-то мне все же подсказывает, что ничего он там не блокировал. Очень похоже именно на то, что он был единственный, кто НЕ ставил ссылок, потому и выжил, так как понизили всех остальных кто попал под фильтр... Вот такой вариант может быть.
НУ если дело в этом, то ларчик очень просто открывается... Хотя я очень сомневаюсь что там дело все же в ссылках...
Dram, я не блокирую, так как сам им мониторю позиции, я лишь дал ссылку на то как сам Ahrefs просит его робота блокировать...)))---------- Добавлено 09.10.2019 в 16:52 ----------Saaa, я на Apache вообще никогда не сидел...
Dram, тут могу ошибаться, возможно можно как-то хитро закрыть от ботов... Я, в данном случае, имел ввиду что в robots.txt я не увидел блокировку ботов ahrefs и semrush...---------- Добавлено 09.10.2019 в 16:35 ----------https://ahrefs.com/robot