- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Еще такой момент
Стоит ли продолжать покупать ссылки после того как сайт занял хорошие позиции?
Я покупал потом резко прекратил после выхода в топ. Может изза этого в песок и залетел.
в песок скорее всего не из-за этого. туда почти все новички попадают.
да, продолжать покупать стоит, но естественно хорошие ссылки
скорее всего за покупку ссылок выкинули. гугл легко находит продажные ссылки
да, продолжать покупать стоит, но естественно хорошие ссылки
да и нелогично, что трастовые ресурсы стали ставить ссылки так сразу.
я пришел к выводу, что для выхода из песка надо не так много - можно просто чертовски уникальный материал подобрать и купить на него ссылки с очень жирных и трастовых ресурсов
Блин, уважаемый, я со счету сбился пытаясь оценить на сколько противроечащих друг другу копий разделилось Ваше сознание!
если вылезет, то может вполне повторно туда попасть если будет дублированный контент и если произойдет резкое обнуление информации на сайте
Так для информации: "песоченица" - это фильтр НЕ за дублирование контента.
в песке только главная а все остальные страницы блога появляются в серпе.
Пипец просто! "Песочница" - фильтр для сайта, а не отдельных страниц!
кстати у меня забавная вещь вышла при прошлом апдейте - один мой сайт на wordpresse сделанный под каталог статей получил пр2. При этом я его вообще не трогал. настоил плагин на получение автоматом статей + много пинг серверов. проверив удивился, что достаточно много блогов на многие размещенные статьи линки поставили. видимо по пингу. так что прописать все возможные никто не мешает ;)
А в голову не приходило, что те, кто добавлял статьи, ставил на них ссылки в своих ресурсах и сервисах закладок, для ускорения их индексации? А внутреняя ссылочная масса вообще уже не работает, да?
да и нелогично, что трастовые ресурсы стали ставить ссылки так сразу.
Если завтра какя-нибудь фармацевтическая компания из Индии (ранее никому не известная) объявит на своем сайте о создании вакцины от СПИДа, то как Вы думаете, сколько минут потребуется, чтобы появился первый миллион ссылок на этот сайт? А сколько времени уйдет у сверхтрастовых сайтов вроде CNN и Yahoo!, чтобы они разместили ссылки на индусов? Ларри Пейдж не для того создал свой индекс, чтобы за ссылки с трастовых ресурсов фильтровали!
Блин, уважаемый, я со счету сбился пытаясь оценить на сколько противроечащих друг другу копий разделилось Ваше сознание!
Так для информации: "песоченица" - это фильтр НЕ за дублирование контента.
Пипец просто! "Песочница" - фильтр для сайта, а не отдельных страниц!
А в голову не приходило, что те, кто добавлял статьи, ставил на них ссылки в своих ресурсах и сервисах закладок, для ускорения их индексации? А внутреняя ссылочная масса вообще уже не работает, да?
Если завтра какя-нибудь фармацевтическая компания из Индии (ранее никому не известная) объявит на своем сайте о создании вакцины от СПИДа, то как Вы думаете, сколько минут потребуется, чтобы появился первый миллион ссылок на этот сайт? А сколько времени уйдет у сверхтрастовых сайтов вроде CNN и Yahoo!, чтобы они разместили ссылки на индусов? Ларри Пейдж не для того создал свой индекс, чтобы за ссылки с трастовых ресурсов фильтровали!
почему - можно покупать качественные ссылки. что именно я имел ввиду я вроде пояснил далее.
я вроде не говогол, что в песок из-за дубля? насколько мне известно за дубль не песочница, а есть другие фильтры.
внутренняя ссылочная масса нормально работает, но я вроде не утверждал обратного? ;)
я думаю в случае с фармацевтической индийской компанией - им будет все равно на их ПР и индексацию страниц.
nytronix, Вы написали, что Гугл с легкостью определяет "покупные" ссылки и за них фильтрует. Вы также утверждаете, что с точки зрения Гугл, появление ссылок с трастовых ресурсов на нетрастовые сайты "нелогично". И тем не менее, Вы призываете покупать такие вот "нелогичные" ссылки с трастовых ресурсов, даже не смотря на то, что Гугл за них, якобы, "фильтрует"... Противоречий не замечаете?
nwaker задал вопрос:
А если вылезет он больше туда (в песочницу - прим. моё) никогда не попадет?
На что Вы ответили:
если вылезет, то может вполне повторно туда попасть если будет дублированный контент и если произойдет резкое обнуление информации на сайте
Теперь же Вы утверждаете, что этого не говорили...
да с дубляжем контента я напутал, спасибо что поправили :)