- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Гугл, скорее, реагирует не на количество, а на Прирост/смену ссылок. Обнулилось 2 сайта в которых продавал ссылки. На обоих не более 3 ссылок с каждого уровня. Зато, есть сайт, который с 2007 года барыжит по 10 ссылок на страницу. Как была двойка, так и осталась, даже тиц в ноль ушёл, а пр остался.
Я склоняюсь к принятию теории о "мигании" ссылок, т. к. на обнуленном сайте в виду значительного роста пузомерок, были подняты цены для размещенных ссылок. После этого, в течение месяца шла активная ротация рекламодателей, по завершению которой и произошло обнуление ПР. Прошу подтвердить или опровергнуть мои подозрения.
нет, у меня не было практически мигания на протяжении долгого времени, была рутинная работа в сапе без изменений в динамике. Почти уверен, что эту причину можно исключить.
LeonCrab добавил 06.04.2009 в 12:56
Если не больше 2х внешних со страницы продажных ссылок - не обнуляют. Если уже 3 внешних со страницы - обнуляют. На примере десятка своих сайтов.
Обнулят. Если необходимы примеры - сброшу в личку.
П.С. +правда есть еще один счетчик..., н оего я думаю в расчет не берут.
LeonCrab добавил 06.04.2009 в 13:07
Решился на одном из сайтом "пощупать" Гугл. Сейчас замораживаю саповские ссылки чтобы они не мигали: новые не принимаю, старые не удаляю, а дабы их оптимизаторы не удалили - просто запрещаю запись в файл САПы (повезло тому кто уже разместился :)). Запасаюсь терпением и буду ждать, писать в суппорт упорно не буду. Посмотрим что там индусы придумали...
LeonCrab, +1 за решение. Обязательно отпишитесь о результатах месяца через три.
LeonCrab - очень интерсная идея с замораживанием саповского файла - практическая реализация ссылок на всегда
Следующий этап - это замораживание только на конкретных страницах (старых), а на новых разрешать - ставить можно, удалять нельзя
Есть еще такие мысли по поводу обнуления, что продажа ссылок является основным фактором, но есть и другие, довольно значительные, факторы (внешние) влияющие на включение кнопки "обнулить".
В связи с этим два вопроса к уважаемой публике.
1. Не считаете ли вы что один тумблер механизма обнуления включается при стуке на сайт (сам факт стука на продажность, без ручной проверки модератором), а второй тумблер - результат работы алгоритма, определяющего наличие продажных ссылок (неважно как они определяются).
2.Может кто-нибудь показать (можно в личку) полностью обнулившиеся:
- блог, имевший ПР >= 4;
- сайт, имевший ПР >=4, и тИЦ>=400.
BigS, как сделаете не забудьте адресочек сайита сбросить ;)
Мои наблюдения:
1. Все равно методы Яндекса и Гугля во многом должны быть похожи. Вот письмо от Яндекса на вопрос куда делись страницы из индекса Яндекса
"Ваш сайт индексируется и представлен в поиске:
http://yandex.ru/yandsearch?serverurl=******
В то же время, часть страниц, скачанных роботом, не участвует в поиске, так
как алгоритмы Яндекса обнаружили среди них страницы со ссылками на ресурсы,
которые раскручиваются с помощью ссылочного спама или являются поисковым
спамом. Эти документы и некоторые разделы сайта были автоматически понижены в
результатах поиска или исключены из них, так как поисковый спам ухудшает
качество поиска.
Чтобы вернуть страницы в поиск, уберите, пожалуйста, ссылки на подозрительные
ресурсы или, если речь идет о немодерируемом разделе сайта, обрамляйте ссылки
на внешние сайты тегом <noindex></noindex>. Когда изменения будут внесены, в
течение некоторого времени сайт вернется в поиск автоматически."
Поэтому у поисковиков точно есть список "плохих" сайтов, все ссылки на которые несут негативное влияние на донора.
2. Есть сайт (сателлит), до новогоднего апа PR3 (после него тоже). около 500 страниц, на них около 700 продажных ссылок. Все ссылки продавались одним блоком внизу. В феврале пр обнулился. Ну, было за что :). Потом раскидал все на 3 блока. Убрал почти все ссылки с длиной более 75 символов, почистил ссылки с тремя одинаковыми словами и двумя парами.
Более ничего не делал. Ну разве добавил немного уникального контента. Сайт не часто обновляется - статей 10-15 в месяц.
В итоге буквально через неделю после чистки PR вернулся к значению 3. Если что еще интересует, задавайте вопросы, постараюсь ответить.
А как можно сделать фильтр ан кол-во символом и повторяющиеся слова?
А как можно сделать фильтр ан кол-во символом и повторяющиеся слова?
https://addons.mozilla.org/ru/firefox/addon/8680
Тут плагин для FF. очень помогает с сапой. там же и контроль за длиной, количеством повторов, индексацией и т.д. Жизнь с ним намного проще.
https://addons.mozilla.org/ru/firefox/addon/8680
Тут плагин для FF. очень помогает с сапой. там же и контроль за длиной, количеством повторов, индексацией и т.д. Жизнь с ним намного проще.
именно им и пользуюсь. Очень помогает ☝