Съесть-то съест. Общеизвестно, что когда сайт трастовый ПС закрывают глаза на мелкие нарушения, но когда сайт теряет кондиции и начинает увеличивать неуникальную часть, то этот изъян может способствовать вылету страниц из индекса по МПС.
Соглашусь, не нужно дублировать слова в Title и Description в том же порядке да ещё в начале строки.
Об этом же написано,
Description должен быть полнее и ориентирован на более формирование рекламных сниппетов.
ПС отлично понимают шаблонизированные приёмы, поэтому если подставляемая часть title-а целиком дублируется в description-е это плохо.
То Яндекс у вас подлый, то Гугл... и вокруг враги.
И только Богоносец - светоч правды. Вы интересны и содержательны в ответах, но к чему все эти бесконечные нападки на справочные материалы поисковых систем?
Понятно, что везде не совсем так, как написано (это так во всём), но отваживать людей от базовых установок - путь в некуда. Это создаёт перманентное недоверие и хаос. Оно конечно азартно для разговора на форуме, но совершенно не способствует ясной рабочей последовательности.
Можно только с зарубежным vpn и в ограниченном демо режиме.
Здравствуйте!
Скажите, где можно разместить прямые ссылки бесплатно (чтобы не требовалось ставить обратной ссылки или кнопки и т.п.) на свой относительно новый сайт ? каталоги или доски объявлений или еще что-то?
может список у кого есть таких URL.
Буду премного благодарен.
Увы, с эти вопросом вы опоздали лет на 15-ать. Сейчас уже сайты не хранят ссылки просто так, тем более без обратной ссылки. Это и раньше то было редкостью.
Можно поискать отраслевые порталы/справочники в тематику вашего сайта, но надеяться, что они разместят, она проиндексируется да ещё без обратной ссылки - надежд мало.
Сейчас все серьёзные сайты размещают рекламу на коммерческих условиях и это нормально.
Рабочий алгоритм здесь может быть следующий:
1) Собираете тематических конкурентов.
2) Идете на Кворк (или ищете здесь, кто оказывает услуги выгрузки Внешних ссылок) и заказываете выгрузки.
Далее по этим выгрузкам смотрите ссылки, которые размещены в тематических порталах, справочниках и т.д.
Возможно что-то удастся найти с бесплатным размещением, но как я уже сказал настраивайтесь на оплату рекламных услуг.
Если есть пример подобного сайта, с полностью рус-яз ЧПУ
сайт.рф/страница
Как индекс в гугле? Можете кинуть пример ссылки на такой сайт? Спасибо
Зайдите в сервис подбора доменов, сделайте выборку из самых ходовых кириллических доменов.
Проверьте индексацию в Гугле.
C индексацией таких доменов у ПС проблем нет, работать с ними не всем удобно, ввиду необходимости формата punycode.
Конечно.
Вот недавний пример. Была задача аудита сайта. В настройках не то, что в robots-е была инструкция на запрет индексации, в htaccess был запрет для заходов, с определёнными User-Agent-ами. Т.е. физически сервер не должен отдавать информацию по этому условию.
Так вот, среди них был явный запрет на парсинг данных для сервиса keys.so. Т.е. это не просто рекомендательная инструкция, это вообще физическое блокирование роботов среди которых был и keys.so.
Ну и что вы думаете? Я захожу в сервис keys.so, чтобы проверить есть ли там данные по этому сайту и вижу, что - да, есть и в том числе самые свежие.
Отсюда вывод, что все эти запреты - ерунда, сервисы скорее всего представляются поисковыми ботами и собирают необходимые данные, ведь это их хлеб.
Не скажу про Ahref, уже им не пользуюсь, но думаю, что в выборе - выполнить задачу или не выполнять, потому что вебмастер где-то в инструкции написал - не выполнять, сервис всё-таки выполнит.
Имитировать конверсии, например.
Если кому-то надо именно 2-3, переубеждать его в чём-то другом - дело неблагодарное.
Пожалуйста.
Указанные настройки в robots.txt к возможностям анализа сайта пользователями не относятся.
Они в принципе бесполезны, ибо необязательны к выполнению.
А вот анализирую массив, можно найти закономерности.
С помощью JS обработок можно быстрее обработать массив и отфильтровать нужные данные.
После того как будут готовы фингерпринты, уже можно все логи только по ним сигментировать.
Заморочиться конечно можно. Но получить все FP отпечатки можно только из анализа гостевого браузера, а значит нужно писать функционал, который будет это делать.
Я перечитал информацию на первой странице - всё это звучит симпатично, но это реализация уровня командной работы, простому вебмастеру её не поднять.
При всём уважении к автору - это всё-таки гипотеза и некоторые наработки (без пруфов и доказательств широкого практического применения это можно воспринимать только как частное мнение). Если бы это было уверенное решение c высоким уровнем точности обнаружения, то автору надо не с нами беседовать, а скорее её Яндексу продать, либо реализовать свой сервис, ибо спрос на такие услуги, я уверен, огромный.
Поведение у юзеров и ботов всё-таки разное. Цели у накрутчиков могут быть не только обмануть Метрику, что касается сценариев - тут тоже всё индивидуально.
Я пишу десятки сценариев и на это уходит десятки часов. Как-то язык не поворачивается их называть примитивными. Как закончу рефакторинг своего рабочего алгоритма - скину вам общую визуализацию, посмотрите на общий объем рабочих поинтов, уверяю, это не 2-3 действия.