Что может, что не может AI. Обсуждаем возможности, делимся опытом, спорим, но в рамках приличия.

К
На сайте с 17.02.2026
Offline
1
#1061
Вот синтезированная информация которая может пригодиться для изучения как работают аналоги по накрутке, для нового проекта:

BAS (Browser Automation Studio) — это мощная среда для создания программ (ботов), которые имитируют действия реального пользователя в браузере. В SEO её чаще всего используют для накрутки поведенческих факторов (ПФ), автоматизации регистрации аккаунтов, парсинга данных и массового размещения ссылок.


Видят ли поисковики искусственную накрутку?


Короткий ответ: Да, видят, но это превратилось в «гонку вооружений». Поисковые системы (особенно Яндекс и Google) тратят огромные ресурсы на разработку алгоритмов машинного обучения (Antispam/Antifraud), которые вычисляют ботов.


Вот основные критерии, по которым поисковики распознают накрутку через БААС:


1. Отпечатки браузера (Fingerprinting)

Поисковик видит не только ваш IP, но и сотни параметров: разрешение экрана, список шрифтов, версию WebGL, аудио-контекст, наличие расширений и даже «шумы» видеокарты. 

• Проблема: Если бот на BAS использует стандартные настройки, он выглядит как «пустой» или идентичный тысяче других ботов браузер. 

• Решение накрутчиков: Использование платных модулей «отпечатков» (Fingerprints), которые подставляют данные реальных устройств.


2. Качество прокси

Поисковые системы ведут базы данных IP-адресов. 

• Если бот заходит с серверного прокси (Data Center), доверие к нему почти нулевое. 

• Если используются мобильные прокси (с динамической сменой IP), поисковику сложнее заблокировать такой трафик, так как на этом же адресе могут сидеть тысячи реальных пользователей смартфонов.


3. Шаблонность поведения

Бот, написанный на BAS, часто действует по алгоритму: «ввести запрос -> подождать 5 сек -> кликнуть по ссылке -> прокрутить до конца». 

• Как палятся: Идеально ровные движения мыши, одинаковые паузы, отсутствие «хаотичных» движений или перерывов, которые свойственны человеку. Профессиональные скрипты на BAS имитируют кривые Безье (движение мыши) и рандомные задержки, но нейросети поисковиков всё равно могут находить статистические аномалии.


4. История профиля («Прогрев»)

Поисковики доверяют пользователям, у которых есть история: они заходят в почту, смотрят YouTube, ищут погоду. 

• Если на сайт заходит «чистый» бот без истории (cookie-файлов), он вызывает подозрение. 

• Накрутчики сначала неделями «гуляют» ботами по популярным сайтам, чтобы собрать Cookie и создать видимость реального человека.


Последствия для сайта


1.  В Яндексе: Накрутка ПФ сейчас работает очень активно, но Яндекс периодически проводит «волны» банов. Сайт может резко взлететь в ТОП-1, а затем на 6–12 месяцев вылететь из индекса за манипуляцию факторами.

2.  В Google: Google больше полагается на фильтрацию такого трафика. Он просто «обнуляет» вес этих переходов, и вы тратите ресурсы на ботов впустую, не получая роста позиций.


Итог: BAS — это всего лишь инструмент. Успех накрутки зависит от качества скрипта, чистоты мобильных прокси и актуальности базы отпечатков. Однако поисковики эффективно вычисляют массовую накрутку через анализ аномалий в статистике.


Мобильные прокси в SEO — это «золотой стандарт» для автоматизации, накрутки поведенческих факторов (ПФ) и парсинга. Их главная ценность заключается в том, что они используют IP-адреса реальных операторов сотовой связи которым поисковики доверяют больше всего.


Главный алгоритм работы: CGNAT


Основная особенность мобильных прокси — технология CGNAT (Carrier-Grade NAT). 

У мобильных операторов в сотни раз меньше IPv4-адресов, чем реальных абонентов. Поэтому через один и тот же внешний IP-адрес в интернет выходят тысячи людей одновременно.

• Как это видит поисковик: Если забанить один «подозрительный» мобильный IP, под бан попадут тысячи обычных честных пользователей. 

• Следствие: Поисковые системы (Яндекс, Google) крайне неохотно блокируют мобильные IP или накладывают на них жесткие ограничения (капчу). Это позволяет ботам работать «под прикрытием» обычных людей.


Ключевые особенности и алгоритмы


1. Ротация IP-адресов

Мобильные прокси не дают один статический адрес навсегда. Ротация (смена IP) происходит по двум сценариям:

• По времени: IP меняется каждые 2, 5, 10 минут.

• По ссылке (API): Вы отправляете запрос на специальный URL, и прокси-ферма принудительно меняет адрес для вашего канала.

Это идеально подходит для массовых действий: один бот зашел под одним IP, адрес сменился, зашел второй бот — для поисковика это два разных человека.


2. Пассивный отпечаток ОС (Passive OS Fingerprinting / p0f)

Это критически важный технический нюанс. Антифрод-системы смотрят на параметры пакетов данных (MTU, TTL), чтобы понять, какая операционная система отправляет запрос.

• Проблема: Если вы используете Windows-браузер на компьютере через мобильный прокси, но пакеты данных говорят, что это Linux (на котором часто работают прокси-серверы), — это мгновенный сигнал о накрутке.

• Особенности качественных прокси: Хорошие поставщики подменяют p0f, чтобы он соответствовал вашему User-Agent.


3. Высокий Trust Score (Уровень доверия)

Мобильные прокси имеют самый высокий рейтинг доверия у антифрод-систем. 

• Резидентские прокси (домашний Wi-Fi) — тоже хороши, но их проще идентифицировать.

• Серверные прокси — имеют почти нулевой траст для задач ПФ и социальных сетей.


4. Работа с «отпечатками» Canvas и WebGL

Поскольку мобильный трафик идет через 4G/LTE модули, он специфичен. Если вы эмулируете мобильный телефон через BAS или другой софт, использование мобильных прокси делает ваш профиль максимально естественным.


Особенности использования в SEO


1.  Безлимитный трафик: В отличие от резидентских прокси (где платят за гигабайты), мобильные прокси обычно продаются «каналами» с безлимитным трафиком, что выгодно для тяжелого парсинга или многочасовых сессий ботов.

2.  Геопривязка: Вы можете выбрать конкретный город. Для локального SEO (например, продвижение в Екатеринбурге) важно, чтобы боты заходили именно с IP этого региона.

3.  Скорость: Мобильные прокси часто медленнее серверных из-за особенностей радиосигнала, что нужно учитывать при настройке таймаутов в софте.

Это классическая ситуация при манипуляции поведенческими факторами (ПФ). Падение трафика после отключения накрутки в BAS (Browser Automation Studio) объясняется тем, как работают современные алгоритмы поисковых систем (особенно Яндекса и Google).


Вот основные причины, почему «эффект» исчезает вместе с работой скрипта:


1. Отсутствие реального спроса и «откат» (Rollback)

Поисковые алгоритмы используют CTR (кликабельность) в выдаче как один из важнейших сигналов. Когда BAS заходит по запросу и кликает на ваш сайт, алгоритм видит: «О, этот сайт стал популярен, подниму-ка я его выше». 

Но как только скрипт выключается, естественный CTR (реальные клики живых людей) остается на прежнем низком уровне. Поисковик понимает, что аномальный интерес пропал, и возвращает сайт на те позиции, которые он заслуживает по совокупности других факторов.


2. Алгоритмы антифрода (Antifraud)

Поисковики не просто считают клики, они анализируют «шлейф» визита. Системы защиты (особенно у Яндекса) умеют распознавать накрутку постфактум:

• Сравнение паттернов: Если 90% трафика по узкому запросу вели себя одинаково (зашли, проскроллили, побыли 2 минуты и ушли), алгоритм пометит эти визиты как подозрительные.

• Списание веса: Часто поисковик не наказывает сайт сразу (баном), а просто обнуляет «вес» этих кликов через несколько дней или недель. В итоге позиции проседают до исходных.


3. Недостаток «длинных» кликов и конверсий

Для поисковика важно не просто то, что на сайт зашли, а то, что пользователь решил свою проблему. 

• Если BAS просто «нагуливает» профили и заходит на сайт, но при этом нет естественных возвратов пользователей (Retention), переходов из закладок или реальных покупок/звонков (которые поисковики тоже частично отслеживают через метрики и браузеры), алгоритм делает вывод, что сайт был «пустышкой».


4. Конкуренция

Пока вы крутили ПФ, ваши конкуренты могли улучшать свои сайты органически: работать над контентом, ссылочной массой и скоростью загрузки. Как только вы убрали «допинг» в виде BAS, ваш сайт снова проиграл им в честной конкуренции.


5. Обучение нейросети

Современные ранжирующие нейросети (например, Yandex Palana или Google RankBrain) постоянно переобучаются. Они могут временно дать сайту «кредит доверия» из-за резкого роста кликов, но если за этим ростом не следует качественное изменение самого ресурса, нейросеть быстро пересчитывает веса.


Что делать, чтобы закрепить результат?

Чтобы позиции не падали так резко, накрутку обычно используют только как дополнение, а не основу:

1.  Снижайте интенсивность плавно: Не выключайте BAS резко, уменьшайте количество потоков постепенно в течение недель.

2.  Улучшайте сниппет: Сделайте так, чтобы реальные люди хотели кликнуть на ваш сайт (привлекательный заголовок и Description).

3.  Работайте над контентом: Если BAS привел сайт в ТОП-3, но реальный пользователь зашел и тут же вышел (высокий показатель отказов), сайт вылетит оттуда очень быстро.

4.  Разбавляйте трафик: Используйте не только поиск, но и переходы из соцсетей, прямые заходы и рекламу.




Vladimir SEO
На сайте с 19.10.2011
Online
2079
#1062
Комплекс #:
Вот синтезированная информация которая может пригодиться для изучения как работают аналоги по накрутке, для нового проекта:
а зачем она в этой теме ? 
Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
К
На сайте с 17.02.2026
Offline
1
#1063
Слай говорил предлагать информацию, а это аналог, для его будущей программы по автоматизации продвижения
Vladimir SEO
На сайте с 19.10.2011
Online
2079
#1064
Комплекс #:
Слай говорил предлагать информацию, а это аналог, для его будущей программы по автоматизации продвижения

он не сделает никакую программу продвижения, естессно. 

Мало того что нужно понимать как это работает( пф), так надо каждый день следить за алго яндекса)) плюс. самому уметь хоть что либо продвинуть сначала. Ну и продукт придется обновлять постоянно, нужны серваки, прокси для тестов. А еще нужно что бы сеошники захотели этим пользоваться. 

Это как дворник решит что его метла может алмазы добывать и начнет мести сильнее

Сергей Новиков
На сайте с 13.05.2025
Offline
16
#1065
Mik Foxi #:
Основатель Твиттера Джек Дорси только что уволил почти половину сотрудников, заменив их на AI.

Почти 6000 программистов, работавших в Block, Square, CashApp and Tidal пошли на мороз.
Ждем новостей через полгода, когда этот ии положит им процессинг платежей, и они будут судорожно нанимать этих же 6000 программистов обратно, но уже на х2 зарплату, чтобы разгрести сгенерированный нейросетями легаси-код)
Сергей Новиков
На сайте с 13.05.2025
Offline
16
#1066
ArbNet #:

Это не программисты, это говнокодеры которые выполняют тупую рутинную работу, мелкие задания, таких легко заменить. А вот реальных программистов разработчиков не заменить, они только будут ещё больше ценится. Сейчас просто в it начался процесс отсеивания зёрен от плевел.

Любой реальный разработчик когда-то начинал с этой самой "тупой рутинной работы" в статусе джуниора. Если сейчас выкосить всю базу новичков, заменив их на ии, откуда через 5 лет возьмутся сеньоры?) Индустрия рубит сук, на котором сидит


Vladimir SEO
На сайте с 19.10.2011
Online
2079
#1067
Сергей Новиков #:
откуда через 5 лет возьмутся сеньоры?
как я понимаю предполагается что через 5 лет сеньором уже будет нейронка 
Сергей Новиков
На сайте с 13.05.2025
Offline
16
#1068
ArbNet #:

Как раз наоборот.

Сеошники это подмастерья поисковиков. То есть если программисты разработают другую систему для поиска сайтов, например через каталогизацию или блокчейн и тд. то от сеошников и мокрого места не останется.

ЗЫ. У меня вот давно уже есть в разработке подобная система через через микросервисы. Да и не я один думаю над этим размышляют как сделать лучше чем монопольные поисковики.

Поиск через блокчейн?) Децентрализованный поиск не взлетит из-за задержек сети и стоимости хранения индексов. Люди хотят получать ответ за миллисекунды, а не ждать, пока транзакция подтвердится)
alaev
На сайте с 18.11.2010
Offline
871
#1069
Комплекс #:
Слай говорил предлагать информацию, а это аналог, для его будущей программы по автоматизации продвижения

Ты ему предлагаешь написать свой bas или zennoposter?

Так он топит за то, что чат жопити двинет сайт без ботов и ссылок. Ссылки и боты не нужны)))

Теория SEO такая: Ai generaTed content is the king.

Ему осталось ее только доказать)))

Создание и продвижение сайтов - https://alaev.net , аудиты сайтов, контекстная реклама
Vladimir SEO
На сайте с 19.10.2011
Online
2079
#1070
alaev #:
Теория SEO такая: Ai generaTed content is the king.
а как отранжировать 50 магазинов с одним и тем же контентом тогда ? 😂

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий