- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Тот же юзератор позволяет закрутить пользователя на сайте как угодно - по любому маршруту с любым кол-вом просмотров.
Там нельзя это сделать. Только запрос и вход на сайт - больше не чего из них не выжать, что не есть пф и больше минус. Их пользователи тупые, заходят по одному запросу, а смотрят страницы по другим запросам.
цель - улучшить ctr в директе
Хм... тема-то про ссылочное. Ну да ладно.
Улучшить CTR в директе или РСЯ? По какому тогда механизму?
с включениями в т.ч. элементов
Это которые Я.Элементы? Так может в этом и ошибка - ведь через них можно узнать полную историю серфинга, включая точки входа/выхода на сайт юзератора.
в метрике идет резкий рост числа роботов
Что это значит, каких роботов? С помощью какого инструмента в метрике это видно?
только я юзаю свой сервис.
Он публичный? В чём его особенности?
были повышения позиций благодаря 1 переходу в день. в течении 2 недель
Какой запрос крутили, что конкретно делали?
Да ничего конкретно вам не расскажут. Чухня какая-то, внатури. Согласен с комдиром по этому вопросу. К сожалению, накрутка поведенческих процесс сложный и проще работать над сайтом.
Он публичный? В чём его особенности?
Какой запрос крутили, что конкретно делали?
Для нового запроса с чистого листа крутил "аппарат для мороженого". много перепробовал но есть пачка рабочих примеров.
Но я бы не привязывался к конкретному запросу. Т.к. запрос скоре всего определяется текстом и внутренним составляющем на странице. А вот усилить ПФ или траст с помощью ПФ т.е. внутреннего наполнения страницы это да вполне возможно. Причем я не зацикливался на переходах с серпа. И это можно сказать главное что отличает от общего понимания ПФ.
Сервиса как такого пока нет. Пока не вижу смысла его развивать. Он для себя. и готова только клиентская часть с полным контролем над браузером. Но если замутить что то. То думаю будет бомба с настройкой своих сетапов и своего понимания ПФ.
Хм... тема-то про ссылочное. Ну да ладно.
Что это значит, каких роботов? С помощью какого инструмента в метрике это видно?
про роботов:
В Метрике есть вкладка Мониторинг=>роботы.
сюда яндекс складывает всех посетителей, чье поведение он воспринимает как боты.
эти посетители не отображаются и не учитываются в любых других отчетах.
Если Вы гений накрутки поведенческого - роботы не превысят 0,2-0,5% от всех пользователей.
Если Вы начали накручивать ПФ, а через некоторое время доля роботов выросла - баста. яндекс спалил вашу накрутку )
В общем про накрутки:
Яндексу не составит труда засечь любую накрутку любых факторов, если они отличаются от некоторых статистических величин.
Возьмем банальный пример с 1 параметром: временем пребывания на сайте
оно ВДРУГ увеличилось. вот 3 месяца было 1,5 минуты. а теперь - 3 минуты на юзера.
при этом на сайте ничего не менялось.
что думать бедному яндексу - НАКРУЧИВАЮТ. => дай-ка мы для этого сайта уменьшим вес ПФ в общем ранжировании.
а теперь смотрим мастер отчетов и ОФИГИВАЕМ сколько параметров там яндекс для нас собирает.
там и распределения по гео, времени, часовым поясам, браузерам, разрешениям экрана и т.д и т.п.
вот накручивать надо одновременно ВСЕ эти параметры -десятки распределений строить.
никакие системы не могут это сделать. сам сделал систему, учитывающую около 15 параметров. потом бросил. ибо все равно вычисляется накрутка.
то же и со ссылками и любыми другими параметрами.
Можно улучшать, но в рамках некоего коридора чувствительности яндекса к спаму.
почему яндекс не хочет создать свою биржу ссылок? Тогда и отключать не надо и доход будет у него раз они такие жмоты.
Он с рекламы зарабатывает больше. Вообще в этом году он начнет выкорчевывать старые сео методы, сернее уже начал...и кстати гуголь тоже не отстает))
почему яндекс не хочет создать свою биржу ссылок?
Возьмем банальный пример с 1 параметром: временем пребывания на сайте
оно ВДРУГ увеличилось. вот 3 месяца было 1,5 минуты. а теперь - 3 минуты на юзера.
при этом на сайте ничего не менялось.
Так может создать эти постоянные особые условия, когда Яндекс не сможет корректно сопоставлять графики? И да, 5-10% нужно подкручивать, а не 100500% =).
Последний ссылочный ап был 19 дней назад.
Апа текстового уже больше недели не было.
Сгораю от нетерпения увидеть что будет в следующий ап и какие будут последствия "отмены" ссылочного.
Про накрутку ПФ говорить - все тоже самое, как про ссылки, которые работают и которые не работают, и про продвижение без ссылок: сколько людей, столько и мнений :)
Да, пожалуй апдейт будет интересным :)