- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приведенный пример бана за лиекс не является 100% верным. Ресурс в примере - ну странно что он вообще попал в индекс, и бан - скорее всего просто исправление ошибки.... и лиекс тут не причем. хотя ресурс забавный.
а по делу - за лиекс может быть бан при автоматическом размещении статей. Если размещать руками и читать предварительно то, что размещаешь, то бан маловероятен, как мне кажется.
Дело в том, что размещение неуникальных статей как минимум ведет к неиндексации страниц со статьями, а если их еще и много (больше, чем просто страниц), то неиндексации всего сайта.
А читать каждую статью.... если у сайта показатели не очень высокие, то затрат времени больше, чем денег от размещения.
Интересно - я статьи размещаю в основном хорошо размноженные(в ручную синонамайзером) и копий по 20-30 каждой. Все пока в индекс сразу входило и до сих пор есть. Но вот с нововедениями Яндекса задумываешься - а не дойдет ли до такого, что даже статьи с малым процентом совпадения, читаемые в индекс входить не будут? :)
ТС, практический опыт в миралинксе такой -
5 клиентских сайтов (+2 своих) (средний тиц около 40 , один ЯК, один DMOZ),
срок пребывания в системе больше года,
на сайтах от 40 до 120 проданных тематических статей,
выведено за весь срок 1680.8 WMZ и 2615 WMR (+ какая-то часть потрачена на покупку статей внутри системы),
полет нормальный.
рефссылку дать? 😂
Размещал тематические статьи вручную с Liex, тщательно модерировал все статьи. Проверял все ссылки в текстах, чтобы они вели на СДЛ; не брал статьи, где было больше 3-х ссылок на 1000 знаков и более 1-го домена. Все очень хорошо и быстро индексировалось и гуглом и яшей, даже поисковой трафик увеличился заметно.
Прошло около 3-х месяцев и БАЦ - БАН, но хорошо хоть не всего сайта, а только раздела со статьями.
Ответ Платона:
Ваш сайт индексируется и представлен в поиске.
В то же время, часть страниц, скачанных роботом, не участвует в поиске, так
как алгоритмы Яндекса обнаружили среди них страницы со ссылками на ресурсы,
которые раскручиваются с помощью ссылочного спама или являются поисковым
спамом. Эти документы и некоторые разделы сайта были автоматически понижены в
результатах поиска или исключены из них, так как поисковый спам ухудшает
качество поиска.
Чтобы вернуть страницы в поиск, уберите, пожалуйста, ссылки на подозрительные
ресурсы или, если речь идет о немодерируемом разделе сайта, обрамляйте ссылки
на внешние сайты тегом <noindex></noindex>. Когда изменения будут внесены, в
течение некоторого времени сайт вернется в поиск автоматически.