- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В последнее время вижу небывалую активность ботов Гугла на сайте. То возьмет в индекс сотню тысяч страниц, потом пожует их и выбросит, оставит какую-то часть. Но в целом количество страниц в индексе Гугла постепенно растет и это радует. Плохо, что при такой активности ботов сайт начинает лагать.
Самое дебильное что сайт особо не меняется последние пару лет, а гугл то закинет в индекс страниц то выкинет
Трафика при этом пару кликов в день добавляется. График с поддомена
Я больше слежу за этими показателями
Чем больше страниц https он проверил тем больше он каких-то манипуляций у себя проводил, вот другой скрин
То есть даже если расчет кол-во проиндексированных но не растет счётчик https то это индексирование до лампочки страницы ему не нравятся он их не считает для себя интересными.
Ещё раз это просто два разных поддомена с одинаковым типом контента.
То есть даже если расчет кол-во проиндексированных но не растет счётчик https то это индексирование до лампочки страницы ему не нравятся он их не считает для себя интересными.
Один мой сайт давно проиндексирован и ранжируется в Яндекс. Но в Google все мои страницы имеют статус " Страница просканирована, но пока не проиндексирована "
Прошло больше года. Что это за дичь?
гугл выпилил часть гптшных
По личному опыту или наблюдаете за сторонними сайтами?
Один мой сайт давно проиндексирован и ранжируется в Яндекс. Но в Google все мои страницы имеют статус " Страница просканирована, но пока не проиндексирована "
Прошло больше года. Что это за дичь?
Это не дичь, а новая реальность индексирования уже не первый год, теперь индекс надо заслужить
LOL _ трафика акцептору может и не будет, а донору будет _ дальше объяснять не буду, если тут даже такое не понимают
Донору с этих говнотекстов ничего не прилетает. Особенно торгующим через миралинкс.
гугл выпилил часть гптшных сайтов 27.01 и 4.02 (большинство). точнее оставил по 2-10 показов в день
Как же он определил. что они сгенерированные?
Как же он определил. что они сгенерированные?
Ну там выпиливается явный шлак, с фразами типа "спасибо, очень интересный вопрос", "мои знания ограничены данными на такое-то число", "вот это хорошая статья, как ты и просил", "эта статья отражает важность и значимость", "это хорошо структурированная статья". Ну и кто-то тупо копирует контент с чатовской разметкой на сайт и публикует, а потом воет на весь интернет, что контент не ранжируется.
По личному опыту или наблюдаете за сторонними сайтами?
по 20 своим сайтам
Как же он определил. что они сгенерированные?
4 мини и 4о выкинул, 3.5 оставил (их кстати вообще не задевает)