- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Чисто гипотетически если подходить - было бы логично ввести такой фактор, но сделать его ничтожно малым. Т.е малус, который можно получить от плохого линка в десятки-сотни раз меньше бонуса от хорошего.
Ведь если из ссылок на сайт А только 10% в черном списке, а на сайт Б - 90%, то это что-то значит.
Т.е. если даже брать этот фактор изолированно(как в моем примере), он уже может первоначально указать на принадлежность сайта к "Белым" или "черным".
На месте Гуся я непременно бы использовал и эти данные. Пусть не в голом виде, а, например, как "Флаг подозрительности". Как еще в таком случае объяснить то, что сайты попадают в опалу пачками? Почему сайт страдает если его чресчур активно спамить блоги?
И не будьте так уверенны, что Гусь не допустит возможности "опускать" конкурентов. Все мы спокойно живем с феноменом Googlejacking.
Так что возьму на себя смелость утверждать, что 4млн какашек "завалят" даже очень крупного монстра.
А вообще эта тема достойна отдельного флейма в ветке link popularity
Добрый вечер,
Не думала, что такая дискуссия разгориться. Столько работы, что и в форум зайти некогда.
Во первых хочу ответить на вопрос, почему я решила, что "спам" скрипт написан на Perl. Это было для меня самое простое решение этого "производственного вопроса", потому что в основном такие *профи* скрипты на нём пишуться (например мы тоже программируем сайты в PHP, а все улиты по опрашиванию Backlink-ов и т.п. всё что делает сервер на перле) Поэтому для меня и не существовало другого решения.
Если вас всех это умозаключение ввело в заблуждение – то приношу мои глубокие извинения...
🙄
По этому поводу я ещё самом начала моей карьеры оптимизатора наткнулась на сайт www.fantomaster.com Так многому у них научилась, когда у них ещё и дизайн был другой и многое они ещё бесплатно предлагали. Не подумайте, что я это преминяю – просто хотелось узнать, как это действует... Так вот у них всё (было) только на Perl. Не энаю как сейчас, но могу предположить, что так и осталсь.
Во вторых – и это моё убеждение и вы можете опять кидаться помидорами :( – это важно не иметь соседства с чернымы сайтами. Germ это хорошо описал.
Может быть это началась панароя оптимизатора, не знаю. Жизнь покажет...
Да ну, не может быть! Ладно еще с 1000 крайне "нехороших" сайтов ссылки может и могут негативно повлиять (и то сомневаюсь), но беспокоиться из-за 1-20 - не стоит. Мало ли кто и откуда проставит на вас эти ссылки, штук по 20 с каждого конкурента - не проблема. Такое начнется...
Такое начнется...:)