- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сам много бился над этим вопросом и вот что надумал.
Дано - http://kat-100.com/ (Тиц 30/Пр 2) (не мой)
Цель - посмотреть и проанализировать каталоги ссылок в поисковом индексе Гугл (посмотреть какие видны в Топ 20).
Выводы поиска:
Ссылок с каталогов на сайт (видимых) 3 - это каталоги ссылок: http://krasland.ru/ Тиц 500/ Пр4; computer-and-bees.com 60/3 и http://www.catalog.0-tel.ru/ 130/4.
Следовательно эти три каталога "любит Гугл" - ставим их во главе всех остальных ссылок каталогов. Так же страницы сайтов есть в индекса Яндекса.
Зачем все это. Казалось бы - у кого Пр больше - тот и "любим", однако лично у меня сомнения на этот счет т.к. в этом простом способе не учитываются множественные факторы ранжирования которых мы не знаем, а это (в моем понимании) важно.
Я тут прикинул - если допустим взять 50 таких каталогов и сделать базу, то прогон по ней даст очень хороший Пр (ну и Тиц не плохой тоже) .... думаю 2-3, а может даже 4 и только на каталогах.
Плюс ещё и в том (моё мнение) что сокращается риск писсимизации сайта по внешним факторам ранжирования = базу можно использовать для быстрой прокрутки новых сайтов :idea:
Обращаюсь ко всем участникам. Есть ли подобные "каталоги" у вас в базах? Обещаю потом создам общую базу для всех :)
Очень много есть каталогов,даже с лучшими показателями)
BeceJIo-3aDoPHo, оно понятно что есть ... цель - выявить те которые Гугл выводит вверх в поисковой выдаче ссылок по конкретным сайтам. Фразы в поисковике типа "каталог сайтов" или что-то подобное не годяться.
Выдача гугла зависит не от "любви" к сайту, основным фактором ранжирования, будь то текст или ссылки, всетаки была и остается релевантность контента, а так же внутряння структура (в данном случае каталога) а для ссылок еще и дата обнаружения их там.
Так что это не лучший способ собирать качественные каталоги (ИМХО конечно) :)
Выдача гугла зависит не от "любви" к сайту, основным фактором ранжирования, будь то текст или ссылки, всетаки была и остается релевантность контента, а так же внутряння структура (в данном случае каталога) а для ссылок еще и дата обнаружения их там.
Так что это не лучший способ собирать качественные каталоги (ИМХО конечно) :)
Может подскажите свой способ :)