- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
На сегодня можно перекрыть "кислород", а точнее вы не будете интересны накрутчикам ПФ, тогда, когда соблюдите три условия:
Но, тогда, вы столкнетесь с другой проблемой)))) Ваш чистый ПФ, ну никак не будет соотноситься с положительной (искусственной) накруткой в серпе по вашей тематике, тем самым, вы с чистой метрикой будете не удел и снова не соответствовать ПФ ТОПа - 10 серпа :)
Дилемма ........
Но, бороться с накруткой ПФ можно и нужно. :)
Я очень боюсь ставить CF, ибо у меня перед глазами негативный пример двух партнеров. У них после установки CF трафик начал очень быстро снижаться как из гугла, так и Яндекса. Казалось бы, просто боты отсеялись, но упало с 3к до 300 хостов в день, а обычные пользователи начали жаловаться, что сайт долго грузится и постоянно показывает им капчу. Может они что-то не то накрутили, но уверяли, что все делали по инструкциям. В итоге сняли CF и .... прошло уже четыре года (!!!), а трафик у них так и болтается на уровне 400 хостов в сутки. Как будто где-то в поисковиках на них наложили крупный фильтр. Писали в ТП Яндекса. там как обычно сказали "с сайтом все нормально".
Я очень боюсь ставить CF, ибо у меня перед глазами негативный пример двух партнеров. У них после установки CF трафик начал очень быстро снижаться как из гугла, так и Яндекса. Казалось бы, просто боты отсеялись, но упало с 3к до 300 хостов в день, а обычные пользователи начали жаловаться, что сайт долго грузится и постоянно показывает им капчу. Может они что-то не то накрутили, но уверяли, что все делали по инструкциям. В итоге сняли CF и .... прошло уже четыре года (!!!), а трафик у них так и болтается на уровне 400 хостов в сутки. Как будто где-то в поисковиках на них наложили крупный фильтр. Писали в ТП Яндекса. там как обычно сказали "с сайтом все нормально".
Накрутили не так. Клауд сам по себе из коробки ничего не фильтрует. Что в бесплатном, что в платном тарифе. Платная версия клауда - это чуть больше плюшек + шикарная аналитика.
Т.е. с клаудом нужно понимать, что именно делаешь и зачем. Бездумное повторение инструкций из сети действительно может быть во вред.
Добавил редактор .htaccess 🔥Выкладываю полный код со стилями и редактором:
Аккуратнее с .htaccess, не "наломайте дров" 😁
Сортировка по количеству визитов не работает.
И поле - Посещаемая страница, сделать бы кликабельным, что сортировать по алфавиту.
И так же по полю IP адрес, в первой таблице. Чтобы наглядно было видно какие страницы посещались с каждого IP.
P.S. Я бы убрал дату-время и вторую таблицу. А в первой бы сделал группировку по IP и URL. И количество визитов выводил был в следующем столбце.
В бесплатной версии капча от CF пропускает только 2-5% роботов
По метрике 2-5%? А остальные 30% получается не видит ни CF ни Метрика?
Добавил редактор .htaccess 🔥Выкладываю полный код со стилями и редактором:
Аккуратнее с .htaccess, не "наломайте дров" 😁
По метрике 2-5%? А остальные 30% получается не видит ни CF ни Метрика?
А cf как вам увидит? В cf можно только посмотреть процент прохождения капчи.
В cf я только добавляю ip и asn для фильтрации.
Спамные ip проходят капчу только 2-3 % ботов.
Допилил возможность проверить данные ip кликнув по нему🔥 Для проверки ip зацепил халявный api от ipapi.co
Добрый день! Узнав спамный ip мы блокируем его через .htaccess. Там для этих целей мы можем указать перенаправление на любую страницу (создать свою 403)
RewriteCond %{REQUEST_URI} !^/403.php
RewriteRule .? - [F,L]
ErrorDocument 403 /403.php
Хотел спросить, можете ли вы написать простенькую капчу на этой странице, чтобы у человека все таки была возможность перейти на сайт? Для примера можно взять выбор цвета или простую математику (сколько будет 2+три= )
Раньше наплыв ботов продолжался довольно непродолжительное время: неделя, две, ну максимум месяц. После чего они уходили и какое-то длительное время можно было жить нормально. Сейчас же не пойми что - уже два месяца без передыху долбят сайт и пока не собираются уходить...
Это я к чему: говорят, что организация вот таких накруток ботов - вещь довольно дорогостоящая и никто просто так этим не будет заниматься. У меня статейник, обычный информационный сайт, не думаю что он кому-то интересен в плане его негативной накрутки с целью удаления из поиска. Значит делается не для этого. Нагул ботов? Почему тогда раньше их нагуливали непродолжительное время (что коррелирует с утверждением о материальных затратах на это всё дело), а теперь боты пасутся как обычные посетители, никуда не уходя. Не кажется ли вам, что заниматься всем этим может реально только весьма солидная контора, например, сам Яндекс? Денежная затраты могут вливаться сколько угодно, в счетчиках можно скрывать и отображать какие угодно данные, выгода по части рся тоже для яндкса в этом деле очевидна и давно обсуждается вебмастерами... А если так - то бороться с такими ботами вещь заранее проигрышная. Как-то так...