Вы много сайтов в ТОПе видели с удобным и понятным юзабилити, где нет портянок, где вся информация с помощью скриптов, флеша и видеороликов располагается на одной странице, где не надо ничего искать и никуда лазить? Вопрос риторический.
В анкоре то зачем? Надо перед анкором - остальное уже проблемы оптимизатора, который идёт следом.
Нет, тогда была лицостена 1000 раз. А стена упорно отвечала:
Так что больше никаких СДЛ, только равнение на представления железяки о качестве. Так оно спится спокойнее... :)
И будет АГС, проходили уже прошлой осенью. Тексты должны писаться только и исключительно под ботов и по критериям, нравящимся ботам. Тогда сайт будет жить долго и счастливо.
P.S. тоже ИМХО, конечно же.
Сентябрь уже традиционно стал месяцем подлянок от Яндекса. Этот год - не исключение. 🍿
По телефону, как и раньше, будет диктоваться bdbd.ru, сайт оттуда никуда не делся.
Жива, правда из 1000 страниц - даже потенциально рабочих сегодня порядка 10-15, остальное - шлак.
Целевой запрос не может быть НК по определению, а ВК не используется для МФА, опять же по определению.
Такой вебмастер создаёт пачки МФА-дорвеев с CTR 15%, а не портал с CTR 1%. Лёгкое бабло же!
Немного поясню: мне всё равно как кто зарабатывает. Есть легальная возможность делать МФА - почему бы и нет. Просто себя не надо обманывать - да, такие сайты не нарушают правил, но и пользы они не несут абсолютно никому, кроме своего хозяина.
Разберитесь для начала - что такое "клиент". Нецелевые посетители ими никогда не были и никогда не станут.
Вы правильно поняли.
Геотаргетинг пропускает клики с других областей, не говоря о конкретных городах. Не даст он ничего в данном конкретном примере.
Взаимоисключающие параметры. Хотя легенда красивая, да.
Это как раз хороший анти-пример. Есть куча городов, в которые ни одна компания в здравом уме за заказом не поедет, т.к. это не выгодно. Именно поэтому эти населённые пункты НК в поиске, потому что они никому не нужны, а не потому что "тупые реклы" не умеют составлять семантическое ядро и размещать у себя статейки с ключами. Я в данном случае не конкретно про Уссурийск, даже в Московской области есть куча НК городов по причине того, что туда просто отказываются ехать спецы.
А по рекламной сети объявление будет крутиться по "купить товар" по соответствующей ставке, и неискушённый рекламодатель будет платить за говнотрафик огромные деньги. Что толку, что говноюзер заинтересовался? Даже если он позвонит (что вероятно, ибо т.к. предложение в городе отсутствует, они звонят всем) - его пошлют в лес.
Задача: сравнить между собой 10000 похожих документов по 3000 символов (500 слов) в каждом.
Если делать в лоб десятисловными шинглами: после разбиения получаем для сравнения массив в 500 000 записей и 250000000000 операций сравнения стрингов (что таит в себе ещё кучу подфункций). На выходе получим таблицу минимум в 100 000 000 строк и 2 столбца. Для справки, уютный exel отказывается принимать в себя более 64 000 строк. Следующий шаг отсортировать всё это безобразие, итого ещё 100000000! операций. ПК ложится замертво от такой проверки, сервер кое-как тащит, но проверка занимает десятки минут.
Теперь расширим диапазон, у нас не 10000, а десятки квадриллионов документов, которые надо сравнить. Нет, на существующих суперкомпьютерах это просто нереально, и что самое главное - бесполезно.
Развивая мысль про слухи и наблюдения, аля "делать главную уникальной", "делать уникальными заголовки". Да - это вполне имеет место быть, потому как логично проверить на схожесть базу главных страниц, базу заголовков и т.п. и уже в случае сигнала проверять остальное, но опять же начать не с шинглов, а с пассажей, с чем связаны ещё ряд слухов и наблюдений.
И да, для экономии мощностей легче не копать в глубь, а накладывать фильтр уже после первого ряда проверок, т.е. по подозрению.
Вот как-то так это работает. Всё разумеется ИМХО.