- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Т.к. Гуголь эту проблему, видимо, решать не берется и ответов не дает на очевидные вопросы и предложения, то я вижу один вариант - вычислить айпишники ботов этого и ему подобных сервисов и банить их по IP.
Т.к. Гуголь эту проблему, видимо, решать не берется и ответов не дает на очевидные вопросы и предложения, то я вижу один вариант - вычислить айпишники ботов этого и ему подобных сервисов и банить их по IP.
Вряд ли это поможет надолго. Во-первых, как их вычислить? Сомневаюсь, что они не маскируют User-agent. Во-вторых, вполне возможно, что они ходят через прокси.
И, кстати, подумал насчет проверки рефереров - тоже не вариант, потому как сами боты гугли могут посчитать это клоакингом и забанить.
Единственный выход, который я вижу для себя - это инклудить *.js файлы с кодом. Это, конечно, тоже можно обойти, но если такая "партизанщина" не станет массовой, вряд ли кто-то даже внимание обратит =)
можно наделать на бесплатных хостингах, сайтов на подобии SpamPoison.
cкормить ихнему боту миллион левых PUB-кеев :) пускай подавится, и пускай админ вечность вычищает базу ☝
можно наделать на бесплатных хостингах, сайтов на подобии SpamPoison.
сегодня пробивал пачку доменов, нашел все с доменами ru, но не смог найти на народе сайты.
Посмотрел код - пуб совпадает, не прячется.
И, кстати, подумал насчет проверки рефереров - тоже не вариант, потому как сами боты гугли могут посчитать это клоакингом и забанить.
Если будет изменяться только ID - не забанят. Слишком маленькое изменение контента чтобы посчитать это клоакингом.
Единственный выход, который я вижу для себя - это инклудить *.js файлы с кодом. Это, конечно, тоже можно обойти, но если такая "партизанщина" не станет массовой, вряд ли кто-то даже внимание обратит =)
На западных ресурсах попадалась информация что это запрещено. Плюс могут быть проблемы, так как параметры хранятся во внешнем файле и могут загрузиться уже после того как выполнится код адсенса.
Гуголь эту проблему, видимо, решать не берется
А ему так даже проще, через паразитов отсеивать сетки ГС. Вот в бегуне уникальный идентификатор. Фил де дифферентс 🚬
А ему так даже проще, через паразитов отсеивать сетки ГС. Вот в бегуне уникальный идентификатор. Фил де дифферентс 🚬
Как раз таки не проще.
Допустим, у каждого объявления уникальный ID.
Тогда я вешаю все сайты под одним акком, не боясь, что кто то под ID выпалит мою сетку. Гугль сразу видит, что эти 50 сайтов, допустим, принадлежат одному пользователю.
А сегодня:
Многие заводят по 10 акков, вешают по 5 сайтов на каждый. В итоге, Гугль видит 10 разных пользователей с разными сетками. Однако, каждая такая сетка в отдельности так же успешно палится, а Гугль не знает, одному человеку они на самом деле принадлежат, либо разным.
Если будет изменяться только ID - не забанят. Слишком маленькое изменение контента чтобы посчитать это клоакингом.
В изначальном посте предлагалось вообще не публиковать код адсенса на посетителей без реферера.
Думаю, боты гугли при индексации сайта учитывают, какой pub-id присутствует в коде, хотя можно и нет. Надо бы как-то это дело проверить.
На западных ресурсах попадалась информация что это запрещено. Плюс могут быть проблемы, так как параметры хранятся во внешнем файле и могут загрузиться уже после того как выполнится код адсенса.
Вот этот момент не совсем понял. У себя на одном сайте разместил код так:
А в adsense_code.js вынес следующее:
Объявления загружаются и отображаются нормально, клики идут. Правда, маловат CTR получился, но думаю это не из-за способа размещения кода =)
В изначальном посте предлагалось вообще не публиковать код адсенса на посетителей без реферера.
Думаю, боты гугли при индексации сайта учитывают, какой pub-id присутствует в коде, хотя можно и нет. Надо бы как-то это дело проверить.
Вообще, бот Гугл.Адсенса представляется ботом, поэтому можно сделать следующий алгоритм:
если есть рефералл, либо пользователя зовут Гугл.Адсенс - объявления показываются.
если нет - не показываются.
Однако, в этом случае мы теряем тех, кто напрямую набрал адрес сайта в строке, и пользователей из закладок.
Как раз таки не проще.
Допустим, у каждого объявления уникальный ID.
Тогда я вешаю все сайты под одним акком, не боясь, что кто то под ID выпалит мою сетку. Гугль сразу видит, что эти 50 сайтов, допустим, принадлежат одному пользователю.
А сегодня:
Многие заводят по 10 акков, вешают по 5 сайтов на каждый. В итоге, Гугль видит 10 разных пользователей с разными сетками. Однако, каждая такая сетка в отдельности так же успешно палится, а Гугль не знает, одному человеку они на самом деле принадлежат, либо разным.
Вот спросите меня, как рекламоателя, за или против unique id ?
Я отвечу: против! С открытыми идентификаторами создаётся ажиотаж: спалить и завалить конкурента (лексика searchengines.ru)
Ищем сетку, вешаем клик-боты, ждём появления "Internet Explorer не может отобразить эту веб-страницу" в адценсовских фреймах.
Чем меньше ГС, тем качественней рекламный тафик. Опровергните.