- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Меня смущает, что у меня обычный редирект на другой сайт, да еще и закрытый в Роботс вдруг привел к пометке сайта как зараженного :(
да еще и закрытый в Роботс вдруг привел к пометке сайта как зараженного
Это ещё можно объяснить. У меня поддомен сайта пометили как зараженный. Я больше месяца доказывал, что это ошибка, даже указал с каким сторонним доменом могло "поклеить". В итоге после того как я на все запросы на поддомене стал отдавать то ли 403, то ли 503, все же согласились и признали, что ошибка с их стороны. Правда, это не помешало потом ещё несколько раз помечать и после этого исправлять с объяснением, что такое больше не должно повториться. :) Но только был какой-то более-менее странный текстовый апдейт, как выплывала проблема и приходилось писать о том, чтобы пофиксили. Через некоторое время, возможно, на крон повесили все свелось к схеме апдейт - пометка о заражённости и через несколько часов без письма снимает. :)
Потом вроде как пропала проблема.
Давно пора, есть нормальные варезники а есть такие что затроянивают машины всякими лоадерами и прочей гадостью. Не помешает если их не будет на первых страницах.
Комрады, datot говорит о иной проблеме. У яндекса свой антивирусник. И работает он зачастую криво, присваивает статус зараженного тем сайтам, где вирусняков и в помине нет. И именно его работой можно класть неугодные сайты. Вот вам пример ситуации. Приходит уведомление на мыло от яшки что ваш сайт такойто заражен. Оказывается антивирус по поведенческим характеристикам выявил червя. Копаем, ищем червя - нету и в помине всё чисто. Отсылаем заявку на пересмотр. И яшка меня поздравляет с тем, что вирусняка теперь уже нет, молодцы удалили. На следующий день ситуация с уведомлением о вирусняке повторяется. И так же ничего не делая отсылаем на пересмотр. И о боги яшка снова не находит вируса на сайте. И так повторяется бессчетное количество раз. А пока сайт имеем пометку зараженного в выдаче вы не имеете посещалки, а как следствие и денег. Для ресурса с доходом 1 бакс в день - это не проблема, проглатывается и ждётся излечения. А вот для сайтов с маржей в 200-300 баксов это просто катастрофа, честное слово! 😡
Не стоит думать что мы криворукие не можем найти вирус))) даже на одностраничных заглушках были фейковые срабатывание этого нового антивируса яшки 🙅
если сайт просел, то возможно вирус! и вся твоя сео работа коту под...