Павел

Рейтинг
160
Регистрация
23.01.2006

Использование ссылочного тегового атрибута rel=nofollow бессмысленно для Google уже много лет.

Реальные способы описаны здесь или здесь

Но даже и так при GA или Метричном коде Google или Яндекс соответственно будут такие ссылки палить, фиксировать по ним переход и в том же Вебвизоре можно увидеть элемент опознанным как ссылка ("...это ссылка-редирект или еще какая-то фигня...")

Так что методика сомнительная, хотя в ряде случаев эффективная и имеет смысл. Только вот делать ее надо по "свежей" структуре папок хранения и именам подключаемых файлов, чтобы изначально роботу доступ к ним перекрывать через robots.txt (имеется в виду сокрытие js-файлов с операторами преобразования). Иначе все равно робот получит к ним доступ.

персональная выдача - она просто отличается от других компов. а здесь - скачет при каждой (!) Ctrl+R на новый sfront и выдает новые позиции сайтов (они переставляются в рамках ТОП-20)

С другого компа то же самое.

Забавно, выдача по Питеру по "пластиковым окнам" (понятно, что персональная) на каждый рефреш прямо сейчас пляшет - сайты местами меняются в рамках ТОП-20.

Фронты меняются на каждый рефреш, на каждом разная последовательность ссылок. Кэш что ли сбрасывают?..

И тогда на основании чего будут ранжироваться сайты в ЯК?

Или я что-то пропустил? Оттуда вроде тоже траф, пусть мизерный, но есть

Alina Tim:

Представляете, бывают такие заказчики, которые вносят изменения только через разработчика.

Ну, я как разработчик, сотни раз сталкивался с тем, что лучше бы попросили нас внести изменения, чем пускали бы рукокрюких "программистов" SEO-контор, которые обычно даже не интересуются, как именно работает, допустим, самописная CMS. А лезут сразу в код, хотя в CMS есть абсолютно весь инструментарий сеошника :)

Есть и свои плюсы - восстановление функциональности за деньги.

Ида, упаси Боже, это не про Вас!

По теме, кто мешает сделать подмену текста изображением, когда в <h1> (да и любой другой тег) пишется текст, а потом с помощью CSS текст выкидывается за пределы контейнера, а фоном объекта кладется графическое лого. Визуально - картинка, фактически - нужный текст.

И еще хорошим тоном является управление потоком html-документа, когда фактически header сайта идет ниже по коду, чем основной контент, а позиционируется либо CSS (абсолютным позиционированием), либо JS (путем перемещения ноды) при загрузке страницы выше.

Еще по теме - сошлитесь на публикации Ашманова, на классический их труд.

87793, то, что автокликер - стопроцентное наблюдение. Не может человек в 100% точности столько раз подряд воспроизводить точную последовательность одних и тех же действий, будь он хоть каким угодно Кенийцем или Индусом. И разница между повторяющимися действиями (в рамках сеанса, я описывал череду в начале) в задержках вполне вписывается в контролируемый программный рандом.

Rodnoi, что автокликер накрутчика Директа - вряд ли. Что ему в ТОП-20 делать? Экономнее шарахаться в ТОП-10. Всякое может быть, конечно. Но сомнительно. Хотя тема сама по себе очень конкурентна даже в нч и сч областях запросов.

Я то все грешу на сглючивший софт ПФ-сервисов...

mjxjm, зарезать зону не долго. Тока это не интересно :) Надо бы понять и устранить причину, а не бороться с симптомами. В админку ломиться не будет, ибо не найдет :)

Otshelnik-Fm, Метричный Вебвизор не определяет, он записывает. А я смотрю записи - и определяю :)

omely, дай то Бог...

Если бы это был чистый бот, то его телодвижения не фиксировал бы ВебВизор Метрики. То есть, только если это бот класса автокликера с реальной имитацией движений мыши и т.п. в рамках GUI операционной системы. Это скорее на софт известных сервисов накрутки ПФ смахивает.

Но IP те же, то есть видимо в рамках одной сети народ работает, что и указанные спаммеры - про эту инфу первым делом нагуглил. Но не сходится по симптомам. Да и форума на сайте как класса нет, не с чего по признакам даже боту приходить, не парсится таким макаром сайт.

---------- Добавлено 26.10.2013 в 10:15 ----------

omely:
Да.
У нас так было. Вычислили, кто развлекается - по тематике. Конкурент. Уверена, что экспериментировали с поведенческим фактором.

Ну собственно, есть такие подозрения. только пока не ясно кто и зачем - по ВЧ/ВК запросам сайт далеко не лидер, есть куда как более интересные жертвы для экспериментов :)

Правильнее будет наверное так:

http://site.ru/catalog/*?

поскольку не только пагинатор, но и фильтры надо убирать. В конце звездочка не нужна вообще

только это только в Яндексе уберет (и то вопрос) ненужные страницы из индекса. В Гугле - только запретит роботу туда шляться, но в индексе оставит и еще и с дурацким сниппетом :).

Скорее лучше сделать через Clean-param (читаем здесь) + выводить по условию (есть гет-переменные) в коде в секции <head> мета-тег <meta name="robots" content="noindex,follow">

Псевдосервис - вполне может. Это когда запрос с козяброй вводишь. На seolib.ru есть такой. Только толку от него - хз...

C точки зрения любых ботов адреса страниц даже с только разными get-переменными - это разные страницы.

Другой разговор, если индексация данного типа страниц запрещена, например с помощью robots.txt (иногда с применением regexp-фильтров, которые отлично понимают Яндекс и Google, но почти никогда - сторонние сервисы) или meta-тега на странице. Тогда по идее никакой бот туда заходить не должен.

В вашем случае вопрос к разработчикам WordPress - почему эти данные передаются через GET, а не по человечески hash-тегом (например site.ru/rubrika/page1.html#replytocom13019)

Всего: 257