- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Ну хоть какие-то внешние ссылки там были?
Счетчики мейла, рамблер Топ100 и LI :)
На моих сайтах не было внешних ссылок, даже счетчиков 😕
Ну, тогда, похоже, у вас действительно другой случай.
Ну, тогда, похоже, у вас действительно другой случай.
ото ж..
Новый фильтр.. Yandex.supplemental :)
К ссылкам фильтр отношения не имеет. Это было понятно еще в марте.
На половине моих сайтов вообще не было никаких исходящих ссылок и не было никаких входящих. Добавлялись через форму. /*Оговорюсь, что исходящих ссылок нет, если яндекс не умеет пока определять ссылку, повешенную на яваскрипт, вызываемый по онклик*/
Внутренняя линковка достаточно навороченная. Контент уникальный для инета, но имеет довольно много дублей на самом сайте.
И всетаки - у кого какие мысли - как бороться???
А есть смысл бороться? Я по-моему еще в марте писал, что проще сделать новый сайт на том же контенте, с необходимыми правками. Другое дело, что не у всех есть возможность разработать подходящее ПО, но это уж их проблемы:). Насколько я понимаю, для "нормального" сайта с мусорным контентом нет больших проблем по обходу этого фильтра. Чуть почитать теорию определения дублей и все получится.
Реальные же проблемы возникают только у 2-5% сайтов, которые перенести на новое имя представляется маловозможным.
и не было никаких входящих
Получается, что статический вес у страниц сайта должен быть невысоким. Может, и нет никакой пессимизации?
А вот такой пример:
Продвигались внутренние страницы сайта по жирным запросам, бэки разные (морды, каталоги и прочее, не спамное, в общем то имхо хорошие бэки и по теме). Но страницы которые продвигались как бы выключены по нужным запросам, они есть в индексе, но выходят по этим запросам другие страницы (которые никак не затачивались под них, но в общем то тоже в какой то мере релевантны и выходят очень далеко, за сотней, а то и в третьей сотне позиций). Что за прикол не могу понять. Может оно и есть?
Новый фильтр.. Yandex.supplemental
Yandex.spam-backlinks :)
Ну хоть какие-то внешние ссылки там были? Не обязательно продажные или обменные. На партнеров, дрзей и т.д. и т.п.
У меня кроме ссылок на счетчики ничего не было, да и те в в ноиндекс.
Могу кинуть сайт и его клоны которые остались в топе в личку.
Yandex.spam-backlinks
Виталий, беки тут играют скорее вторичную роль.
Мне показали несколько примеров с очень хорошими беклинками, также попавшие под "yandex.supplemental"