Антоний Казанский

Антоний Казанский
Рейтинг
787
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
богоносец #:
Эт маркетологи подлого Гугла не раскрывают реального олгоритма

То Яндекс у вас подлый, то Гугл... и вокруг враги.

И только Богоносец - светоч правды. Вы интересны и содержательны в ответах, но к чему все эти бесконечные нападки на справочные материалы поисковых систем? 

Понятно, что везде не совсем так, как написано (это так во всём), но отваживать людей от базовых установок - путь в некуда. Это создаёт перманентное недоверие и хаос. Оно конечно азартно для разговора на форуме, но совершенно не способствует ясной рабочей последовательности.

Amigo_9876 #:
Можно без кворка, а просто https://ahrefs.com/backlink-checker

Можно только с зарубежным vpn и в ограниченном демо режиме.

OlegOlegovich :

Здравствуйте!

Скажите, где можно разместить прямые ссылки бесплатно (чтобы не требовалось ставить обратной ссылки или кнопки и т.п.) на  свой относительно новый сайт ? каталоги или доски объявлений или еще что-то?

может список у кого есть таких URL.

Буду премного благодарен.

Увы, с эти вопросом вы опоздали лет на 15-ать. Сейчас уже сайты не хранят ссылки просто так, тем более без обратной ссылки. Это и раньше то было редкостью.

Можно поискать отраслевые порталы/справочники в тематику вашего сайта, но надеяться, что они разместят, она проиндексируется да ещё без обратной ссылки - надежд мало.

Сейчас все серьёзные сайты размещают рекламу на коммерческих условиях и это нормально.

Рабочий алгоритм здесь может быть следующий:

1) Собираете тематических конкурентов.

2) Идете на Кворк (или ищете здесь, кто оказывает услуги выгрузки Внешних ссылок) и заказываете выгрузки.

Далее по этим выгрузкам смотрите ссылки, которые размещены в тематических порталах, справочниках и т.д. 

Возможно что-то удастся найти с бесплатным размещением, но как я уже сказал настраивайтесь на оплату рекламных услуг.

regta :

Если есть пример подобного сайта, с полностью рус-яз ЧПУ

сайт.рф/страница

Как индекс в гугле? Можете кинуть пример ссылки на такой сайт? Спасибо

Зайдите в сервис подбора доменов, сделайте выборку из самых ходовых кириллических доменов.

Проверьте индексацию в Гугле. 

C индексацией таких доменов у ПС проблем нет, работать с ними не всем удобно, ввиду необходимости формата  punycode.

не хаос #:
То есть если включить эти настройки, любой юзер сможет все равно проанализировать этот, сторонний для него, сайт через, например, ахрефс или семруш?

Конечно.

Вот недавний пример. Была задача аудита сайта. В настройках не то, что в robots-е была инструкция на запрет индексации, в htaccess был запрет для заходов, с определёнными User-Agent-ами.  Т.е. физически сервер не должен отдавать информацию по этому условию.

Так вот, среди них был явный запрет на парсинг данных для сервиса keys.so. Т.е. это не просто рекомендательная инструкция, это вообще физическое блокирование роботов среди которых был и keys.so.

Ну и что вы думаете? Я захожу в сервис keys.so, чтобы проверить есть ли там данные по этому сайту и вижу, что - да, есть и в том числе самые свежие.

Отсюда вывод, что все эти запреты - ерунда, сервисы скорее всего представляются поисковыми ботами и собирают необходимые данные, ведь это их хлеб.

Не скажу про Ahref, уже им не пользуюсь, но думаю, что в выборе - выполнить задачу или не выполнять, потому что вебмастер где-то в инструкции написал - не выполнять, сервис всё-таки выполнит. 

sagamorr #:
А какая еще может быть цель у ПФ ботов?

Имитировать конверсии, например.


sagamorr #:
но если кто то нашел как добиться поставленной цели в 2-3 действия

Если кому-то надо именно 2-3, переубеждать его в чём-то другом - дело неблагодарное.

не хаос #:
Обьясните пжл желательно кратко

Пожалуйста.


не хаос #:
при этих вышеуказанных настройках через роботс обычные, непродвинутые юзеры не смогут анализировать сайт?

Указанные настройки в robots.txt к возможностям анализа сайта пользователями не относятся.

Они в принципе бесполезны, ибо необязательны к выполнению.

sagamorr #:

А вот анализирую массив, можно найти закономерности.

С помощью JS обработок можно быстрее обработать массив и отфильтровать нужные данные.

После того как будут готовы фингерпринты, уже можно все логи только по ним сигментировать.

Заморочиться конечно можно. Но получить все FP отпечатки можно только из анализа гостевого браузера, а значит нужно писать функционал, который будет это делать.

Я перечитал информацию на первой странице - всё это звучит симпатично, но это реализация уровня командной работы, простому вебмастеру её не поднять.

При всём уважении к автору - это всё-таки гипотеза и некоторые наработки (без пруфов и доказательств широкого практического применения это можно воспринимать только как частное мнение). Если бы это было уверенное решение c высоким уровнем точности обнаружения, то автору надо не с нами беседовать, а скорее её Яндексу продать, либо реализовать свой сервис, ибо спрос на такие услуги, я уверен, огромный.


sagamorr #:
Поведение у юзеров, у ботов - это сценарии и все они достаточно примитивные. Единственная цель - обмануть метрику, поэтому если это можно будет сделать в 2-3 действия, то сценарий на 20 действий никто делать не будет.

Поведение у юзеров и ботов всё-таки разное. Цели у накрутчиков могут быть не только обмануть Метрику, что касается сценариев - тут тоже всё индивидуально.

Я пишу десятки сценариев и на это уходит десятки часов. Как-то язык не поворачивается их называть примитивными. Как закончу рефакторинг своего рабочего алгоритма - скину вам общую визуализацию, посмотрите на общий объем рабочих поинтов, уверяю, это не 2-3 действия.

sagamorr #:
Товарищ на первой странице написал принцип вычисления ботов.
sagamorr #:
Установка JS ловушек, по ним вычисляют спам сеть, анализируют по ней посещения и формирует фингерпринты.

Это уже надстройки, они к тестовому анализу логов в целом не имеют отношения. 

Так-то конечно, можно и свой Saas сервис написать. Но мы же просто анализируем текстовую информацию из лога, а там всё довольно скупо.


sagamorr #:
Согласен с ним, что ботоводы не сильно заморачиваются со сценариями и все их можно вычислить по поведению и другим метрикам.

Заморачиваются по разному, анализ поведения - это задача уже совсем другого порядка. Не парсинг текстовых данных.

Александр #:
После осознания того, что данные ЯМетрики не всегда достоверные, то и анализ строить по ним - это есть путь в никуда.

Я бы не сказал, что они недостоверные, просто критерии учёта разные.

Это проблема того же порядка, что если сравнить данные разных счётчиков, то показатели будут иметь расхождения. 

В принципе, идея считать вообще всё, что фиксируется в логе - идея понятная и в частном случае, пожалуй, востребованная.

Однако как в статическом виде отличать ботов от пользователей я себе например не представляю. Запись в логе - это перечень post/get запросов и в них в отношении поведенческих ботов нет признаков, что это бот.

C формальными ботами (кои ботами представляются) - здесь понятно.


Александр #:
В любом случае, ценной инфо сегодня вывез вагон, буду разгребать и учить ;)

Это всегда здОрово, этим сообщество и ценно 😉

Всего: 12568