- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
А как вам такой "вспомогательный" алгоритм?:
- робот находит нарушения на сайте
- в первую очередь проверяет наличине нарушений на "дружественных" нарушителю сайтах (к "дружественным" можно отнести и тех, на кого "нарушитель" ссылается, и IP, и ху-из, ...)
Вот у одного пострадавшего и сложилось впечатление, что по IP санкции накладываются, у другого по ху-из, а у третьего по ссылкам.
Итог такой. Зная для каждого сайта ip адрес, первичный dns сервер, и принадлежность по whois, технически просто идентифицировать сетку.
Сетку легче вычислить просто по обратным ссылкам.
Но даже при таком фильтре остается решения на дедике вполне реализуемое - вешание каждого сайта на свой ip, использование DNS сервера провайдера и манипуляции с именем владельца (Имя и фамилию одного и того же человека в английской транскрипции можно написать десятками разных способов).
Просто не сможет поисковик нарыть данные по whois ибо упрется в домены зареганные на 3-х лиц (регистратор, дизайнер, хостер, юрист...). Одинаковый whois не значит, что это сетка... Страшилка для малолеток.
А никто не задумывался, что даже имея 3, 5, 10, 20, 50, 100, 200, 500 и т.д. сайтов на одном IP перелинкованных между собой можно не нарушать лицензию, если ссылки стоят в первую очередь для людей? И что в таком случае эти сайты будут в сортир спущены?
Первая трезвая мысль в теме...
Путем несложной арифметики, (500000 доменов в зоне ru, не более 10 запросов в минуту к whois с одного IP) можно посчитать что на выкачку всех данных потребуется 2084 дня или 5,7 года. Яндекс скорей доступ к базе получит, чем будет такой ерундой заниматься.
Вторая трезвая мысль... Только ошибка в цифрах вроде. Хотя проверять лень.
А как вам такой "вспомогательный" алгоритм?:
- робот находит нарушения на сайте
- в первую очередь проверяет наличине нарушений на "дружественных" нарушителю сайтах (к "дружественным" можно отнести и тех, на кого "нарушитель" ссылается, и IP, и ху-из, ...)
Если на сайте есть нарушение то дальнейшее уже лишено смысла, а вопли про баны сеток объясняются просто: сайты сделанные теми же руками обычно имеют одни и теже ошибки.
ИМХО доказательств очень мало. Но лучше не размещать по 50 сайтов на одном IP.
Вот здесь человек в двух предложениях охарактеризовал всю дискуссию. От себя добавлю - и 30 тоже.:)
::
Кстати, если кому интересно
тут - http://www.seoegghead.com/tools/what-is-hosted-on-that-ip.php
можно самому проверить гипотезу.
алго, вкратце, такой
берем сайт серьезных продвигаторов (из топа по "продвижение сайтов" "оптимизация сайтов")
смотрим что еще висит на этом айпи (с большой вероятностью сайты клиентов или собственные проекты)
смотрим какие места занимают эти сайты по соответствующим им запросам.
Убеждаемся в том, что ПОКА это не актуально для Яндекса.
Да бред это скорее всего, если и сделает это Яндекс в каком нибудь лохматом году, то что это даст Яндексу как таковому. Нужно ли ему делать лишние никому ненужные телодвижения не проанализировав как можно продиводействовать этому. В Яндексе не лохи сидят, и оптимизируют тоже не бараны. Не нужна это возня Яндексу, ему пользователь нужен а не борьба с оптимизаторами. Ведь простой Вася Пупкин не потянет сети на несколько сотен сайтов. А серьезная контора если надо - раскидает по ip за пару дней. И чего это Яндексу дергатся лишний раз, суета она мешает, ему бабло надо зарабатывать. Есть оптимизаторы - у них есть цены, а есть директ. Пока пользователь платит за директ и посетитель набирает в строке типа ya.ru , то все нормально и все довольны.
Между прочим, вся база whois зоны ru парсится за 2 дня полностью (650 тыс. доменов), а обновление - дело нескольких минут. Странно было бы предположить, что у Яндекса этой базы нет.
Вторая трезвая мысль... Только ошибка в цифрах вроде. Хотя проверять лень.
Да переработался ) 34 дня требуется.
Zonk, при особых ухищрениях можно и за два дня. Только нужно ли это Яндексу? Стоит овчинка выделки?
Zonk, при особых ухищрениях можно и за два дня. Только нужно ли это Яндексу? Стоит овчинка выделки?
у меня есть скрипт, за $50, выкачивает всю базу whois за 2 дня без проблем. Никаких заморочек по поводу лимита для ip не замечал.
P.S. Работает быстро не с любого хостинга. Видимо, для некоторых хостеров нет ограничений по ip.
страшилки для детсадовцев... чесслово..
а вы не думали, что огромный процент сеток находится не в зоне ru? А в буржуйских зонах whois данные можно любые прописывать.
Прав был тут один чувак, написавший выше, что незачем Яше такой фигнёй заниматься.. ему бабло надо рубашить, а не вести окопную войнушку с оптимизаторами.