- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Я не раз проводил эксперименты, затариваясь сотнями Г-ссылок, практически без отбора доноров. На ура ставил фильтры, лишь бы подешевле и побольше.
И что?
Всё растет. И при том растет даже лучше, чем на тех сайт, которые холишь, лелеешь и очень щепетильно относишься к донорам.
А двигали на Украине? И как давно последний раз закупались?
У меня есть примеры проектов на которые в свое время был куплен всякий мусор, но это было два года назад. и такие проекты и правда очень хорошо себя чувствуют.
Я верю во много параметров, которые тяжело "потрогать" или доказать. Например, я верю в траст, тиц, тематичность и прочие "мифы". Раз ПС может анализировать мою историю и показывать соответствующую контекстную рекламу, почему она не может определять тематичность?
Про эксперимент выше - всё относительно. Могли быть доноры плохие, а могли быть магнитные бури. SEO это свод указаний, а не жестких правил (с)
Лично я предпочту сначала отбирать качественные тематические доноры/статьи, а потом все остальные.
Раз ПС может анализировать мою историю и показывать соответствующую контекстную рекламу, почему она не может определять тематичность?
Конечно может, вопрос в другом, что дает эта тематичность? Если я рекламное агентство, то моим клиентом могут быть как трубный завод, так и аквапарк и оба могут порекомендовать меня. Кроме того меня может порекомендовать подрядчик, который делает мне наружку, дак какая из этих ссылок объективнее оценивает меня среди рекламных агентств?
Лично мне кажется, что тематичность донора (страницы донора) - это очень спорный критерий оценки качества ссылки.
Спорный, что касается отдельного документа. Думаю, что тематичность страницы определяется все-таки тематичностью сайта.
Поддерживаю.
Лично я сначала стараюсь отобрать по жестким фильтрам сначала тематические сайты, потом тематические страницы через "Релевантный подбор", потом просто тематические. Как всё нужное закончится - перехожу к смежным тематикам.
Саповский и аналогичные биржевые фильтры а-ля "Релевантный подбор" - авно редкостное. Не работают они вообще.
Я если и покупаю уже ссылки, то исключительно с тематических, около-тематических страниц. Я думал так большинство покупает, ан-нет оказывается)))
Парсим под каждую акцепторскую страницу 2-3 ключа в гугле (ну или в яше - кому как...) до топ500-600 (как раз для забивки избранного в сапе. Лимит 500 урлов). Удаляем дубли доменов. На выходе 3-4 раза забиваем избранное в сапе (смотря сколько напарсим), скупаем самые сливки и профит ;) Вроде всем давно известная схема...
Беру в Сапе ссылки только при наличии моего ключа в тайтле и тексте.
И рядом часто вижу прямых конкурентов в моих тематиках.
Саповский и аналогичные биржевые фильтры а-ля "Релевантный подбор" - авно редкостное. Не работают они вообще.
Я если и покупаю уже ссылки, то исключительно с тематических, около-тематических страниц. Я думал так большинство покупает, ан-нет оказывается)))
Парсим под каждую акцепторскую страницу 2-3 ключа в гугле (ну или в яше - кому как...) до топ500-600 (как раз для забивки избранного в сапе. Лимит 500 урлов). Удаляем дубли доменов. На выходе 3-4 раза забиваем избранное в сапе (смотря сколько напарсим), скупаем самые сливки и профит ;) Вроде всем давно известная схема...
Подход хороший, но с ним много не напокупаешь.
Саповский и аналогичные биржевые фильтры а-ля "Релевантный подбор" - авно редкостное. Не работают они вообще.
Я если и покупаю уже ссылки, то исключительно с тематических, около-тематических страниц. Я думал так большинство покупает, ан-нет оказывается)))
Парсим под каждую акцепторскую страницу 2-3 ключа в гугле (ну или в яше - кому как...) до топ500-600 (как раз для забивки избранного в сапе. Лимит 500 урлов). Удаляем дубли доменов. На выходе 3-4 раза забиваем избранное в сапе (смотря сколько напарсим), скупаем самые сливки и профит ;) Вроде всем давно известная схема...
К сожалению за 30 позицией встречается шлак редкосный даже дубли страниц так что не стоит прям на эффект расчитывать.
Так можно сказать обо всем, но у кого-то работает, у кого-то нет.
В любом случае каждый из нас использует сложные фильтры для отсева доноров и ограничиваться одним как-то неправильно.
важна тематика по моим наблюдениям.
но если старый сайт, то можно и с него прикупить ссылок