Я не про тыкать, а про использование задержки. Я не раз тестировал такое на проектах клиентов, наблюдалась сильная просадка в доходах.
Есть предположение, что скрытие рекламы предотвращает случайные нажатия на неё при прокрутки. Это и было следствием снижения доходности. Но клиентов это в любом случаи не устраивало и рекламные блоки убирали из задержки.
Класс... сколько -% доходности? Не тестировали?
А не будет ли такого, что я задам размеры выделенные под рекламные блоки, а из-за адаптивности некоторые из них не смогут откручиваться из-за заданого ограничения в размерах?
В CSS есть такой параметр как min-height. А учитывая, что есть ещё и @media можно вообще многое, что сделать.
Вы хотели сказать идёт парсинг вашего сайта с подделкой USERAGENT?
То есть нужно создать пул сайтов трастовых, чтобы туда добавлялись ссылки и потом ботом удалялись спустя время?
не обязательно трастовых, просто создаётся домен, потом страница с текстом и с ссылкой на ваш сайт, далее отправляется на переиндексацию, как только бот зашёл, страница сносится.
Тут дело в массовости процесса и автоматизации.
куча доменов, где появляется ссылки на ваша ссылка, на эти страницы инициируется переход бота. Как только бот зашёл страница удаляется. И таких страниц и переходов делается много, чтобы точно бот зашёл дальше.
Стандартное нагуливание ботов.
Скоро Яндекса будет тупо ботофермой, где в принципе алгоритмы не нужны, тупо боты туда сюда сайты будут вертеть.
4) подключить клаудфлар.
Кстати, да. Тоже как вариант.