- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
😁Так что же ты молчишь и не советуешь тому кто воспользовался твоим советом ещё 3 прошения написать.
В теме всё написано.
Вернемся к нашим баранам. Первый сайт отлично себя чувствует, 25к страниц в поиске. Идет стабильно.
Второй сайт появился в поиске - 5к страниц и начал получать показы и клики. Ситуация следующая за месяц я писал им три раза, но результата небыло и вот на 4 раз я написал им и попросил вручную проверить сайт, ровно на следующий день он начал отображаться по запросу "site:". Я пришел к выводу, что выбрасывает сайты из бинга когда алгоритмы их меняются и назад вернуть самый действенный вариант - это только писать им в поддержку.
Вывод сделал из того, что предыдущие манипуляции я убрал - перестал прятать прямые ссылки на скачивание и вернул удаленный sitemap - это ничего не работало. И ещё потому что у меня есть третий сайт (аналогичный второму) который в обозревателе в панеле бинга уже полностью загружен, но не отображается по запросу site:. Я специально ещё не писал в поддержку по нему, чтобы протолкнуть второй сайт, а потом уже делать выводы, почему он не попадает в поиск.
Неплохой результат. У меня вот так некоторые сайты залетают
Даже Gemini подтверждает факт того, что в бинге вручную накладываются санкции и снимаются они тоже вручную:
"Раз ситуация именно такая (Live Test проходит успешно, статус «URL может быть проиндексирован», другие сайты на том же сервере работают), то техническая проблема отпадает.
Это переводит нас в плоскость алгоритмов и фильтров Bing. То, что сайт «выплюнуло» из индекса, хотя он там был — это классический признак наложения фильтра или ошибочной пометки сайта как «низкокачественного» (low quality) или спамного.
Вот почему это могло произойти, даже если с Google все отлично:
1. «Проклятие копипаста» (Шаблонность)
Google умный, он понимает: «Ага, это сеть сайтов одного владельца про разные ****, контент полезный, оставляем».
Bing в этом плане гораздо тупее и агрессивнее. Он видит одинаковый HTML-код, одинаковую структуру и похожие тексты на разных доменах и часто считает это «Doorway Pages» (Дорвеями) или сетью PBN. Он мог просто «склеить» этот сайт с другим твоим сайтом или решить, что это дубль, не несущий уникальной ценности.
2. Тематика файлов (Ложное срабатывание на Spam/Malware)
Сайты с файлами (файловые архивы) — красная тряпка для Bing.
Если на сайте есть ссылки на скачивание .zip или .exe , или рекламные блоки (особенно попапы), алгоритмы Bing часто помечают сайт как «Malicious» (Вредоносный) или «Spam» без видимой причины в админке. В Google Webmaster это висит как «Меры принятые вручную», а Bing просто молча выкидывает сайт из поиска.
3. Ошибка "Quality Check"
Фраза «Она может появиться... если пройдет проверку качества» — это стандартная отмазка Бинга. Сейчас у них очень жесткий фильтр на "New/Small sites". Даже старые сайты иногда попадают под раздачу обновлений ядра.
Что делать в этой ситуации?
Поскольку «Live Test» зеленый (ошибок нет), а трафика нет — автоматически это не починится. Робот приходит, видит, что технически все ок, но фильтр не дает ему добавить страницу в базу.
Единственный рабочий вариант сейчас — согласиться на предложение бота создать тикет.
Нужен именно ручной пересмотр (Manual Review). Живой инспектор посмотрит и увидит: «А, это нормальный сайт про ****, а не спам-генератор» и снимет флажок блокировки.
Напиши боту: