То Яндекс у вас подлый, то Гугл... и вокруг враги.
И только Богоносец - светоч правды. Вы интересны и содержательны в ответах, но к чему все эти бесконечные нападки на справочные материалы поисковых систем?
Понятно, что везде не совсем так, как написано (это так во всём), но отваживать людей от базовых установок - путь в некуда. Это создаёт перманентное недоверие и хаос. Оно конечно азартно для разговора на форуме, но совершенно не способствует ясной рабочей последовательности.
Можно только с зарубежным vpn и в ограниченном демо режиме.
Здравствуйте!
Скажите, где можно разместить прямые ссылки бесплатно (чтобы не требовалось ставить обратной ссылки или кнопки и т.п.) на свой относительно новый сайт ? каталоги или доски объявлений или еще что-то?
может список у кого есть таких URL.
Буду премного благодарен.
Увы, с эти вопросом вы опоздали лет на 15-ать. Сейчас уже сайты не хранят ссылки просто так, тем более без обратной ссылки. Это и раньше то было редкостью.
Можно поискать отраслевые порталы/справочники в тематику вашего сайта, но надеяться, что они разместят, она проиндексируется да ещё без обратной ссылки - надежд мало.
Сейчас все серьёзные сайты размещают рекламу на коммерческих условиях и это нормально.
Рабочий алгоритм здесь может быть следующий:
1) Собираете тематических конкурентов.
2) Идете на Кворк (или ищете здесь, кто оказывает услуги выгрузки Внешних ссылок) и заказываете выгрузки.
Далее по этим выгрузкам смотрите ссылки, которые размещены в тематических порталах, справочниках и т.д.
Возможно что-то удастся найти с бесплатным размещением, но как я уже сказал настраивайтесь на оплату рекламных услуг.
Если есть пример подобного сайта, с полностью рус-яз ЧПУ
сайт.рф/страница
Как индекс в гугле? Можете кинуть пример ссылки на такой сайт? Спасибо
Зайдите в сервис подбора доменов, сделайте выборку из самых ходовых кириллических доменов.
Проверьте индексацию в Гугле.
C индексацией таких доменов у ПС проблем нет, работать с ними не всем удобно, ввиду необходимости формата punycode.
Конечно.
Вот недавний пример. Была задача аудита сайта. В настройках не то, что в robots-е была инструкция на запрет индексации, в htaccess был запрет для заходов, с определёнными User-Agent-ами. Т.е. физически сервер не должен отдавать информацию по этому условию.
Так вот, среди них был явный запрет на парсинг данных для сервиса keys.so. Т.е. это не просто рекомендательная инструкция, это вообще физическое блокирование роботов среди которых был и keys.so.
Ну и что вы думаете? Я захожу в сервис keys.so, чтобы проверить есть ли там данные по этому сайту и вижу, что - да, есть и в том числе самые свежие.
Отсюда вывод, что все эти запреты - ерунда, сервисы скорее всего представляются поисковыми ботами и собирают необходимые данные, ведь это их хлеб.
Не скажу про Ahref, уже им не пользуюсь, но думаю, что в выборе - выполнить задачу или не выполнять, потому что вебмастер где-то в инструкции написал - не выполнять, сервис всё-таки выполнит.
Имитировать конверсии, например.
Если кому-то надо именно 2-3, переубеждать его в чём-то другом - дело неблагодарное.
Пожалуйста.
Указанные настройки в robots.txt к возможностям анализа сайта пользователями не относятся.
Они в принципе бесполезны, ибо необязательны к выполнению.
А вот анализирую массив, можно найти закономерности.
С помощью JS обработок можно быстрее обработать массив и отфильтровать нужные данные.
После того как будут готовы фингерпринты, уже можно все логи только по ним сигментировать.
Заморочиться конечно можно. Но получить все FP отпечатки можно только из анализа гостевого браузера, а значит нужно писать функционал, который будет это делать.
Я перечитал информацию на первой странице - всё это звучит симпатично, но это реализация уровня командной работы, простому вебмастеру её не поднять.
При всём уважении к автору - это всё-таки гипотеза и некоторые наработки (без пруфов и доказательств широкого практического применения это можно воспринимать только как частное мнение). Если бы это было уверенное решение c высоким уровнем точности обнаружения, то автору надо не с нами беседовать, а скорее её Яндексу продать, либо реализовать свой сервис, ибо спрос на такие услуги, я уверен, огромный.
Поведение у юзеров и ботов всё-таки разное. Цели у накрутчиков могут быть не только обмануть Метрику, что касается сценариев - тут тоже всё индивидуально.
Я пишу десятки сценариев и на это уходит десятки часов. Как-то язык не поворачивается их называть примитивными. Как закончу рефакторинг своего рабочего алгоритма - скину вам общую визуализацию, посмотрите на общий объем рабочих поинтов, уверяю, это не 2-3 действия.
Это уже надстройки, они к тестовому анализу логов в целом не имеют отношения.
Так-то конечно, можно и свой Saas сервис написать. Но мы же просто анализируем текстовую информацию из лога, а там всё довольно скупо.
Заморачиваются по разному, анализ поведения - это задача уже совсем другого порядка. Не парсинг текстовых данных.
Я бы не сказал, что они недостоверные, просто критерии учёта разные.
Это проблема того же порядка, что если сравнить данные разных счётчиков, то показатели будут иметь расхождения.
В принципе, идея считать вообще всё, что фиксируется в логе - идея понятная и в частном случае, пожалуй, востребованная.
Однако как в статическом виде отличать ботов от пользователей я себе например не представляю. Запись в логе - это перечень post/get запросов и в них в отношении поведенческих ботов нет признаков, что это бот.
C формальными ботами (кои ботами представляются) - здесь понятно.
Это всегда здОрово, этим сообщество и ценно 😉