- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Желательно при этом использовать побольше фидов и выдать с каждого по 1, чтобы в целом получился уникальный контент (относительно целой странице).
Какие фиды парсишь? Кинь плиз в личку если в топике не хочешь писать...
Парсинг RSS-фидов с выводом результатов на страницы частично помогает решаить проблему
Как сказать...
Год веду наблюдения - до сих пор почти все в саплементал.
Используется скрипт самообновляемого портала.
В общей массе парсится порядка несколько десятков источников одновременно, как html, так и rss-фиды.
Целевая страница состоит из:
собственно полный текст сграбленной новости + 20 текстовых превью-анонсов других статей.
minimum, а разбирать не пытался?
[1 часть сграбленной новости]
[5 превью]
[2 часть сграбленной новости]
[5 превью]
и т.д.
minimum, а разбирать не пытался?
[1 часть сграбленной новости]
[5 превью]
[2 часть сграбленной новости]
[5 превью]
и т.д.
Да и пожестче закручивали - эффект тот же.
Насколько я понимаю смысла в такой перемешке нет.
Алгоритм гугла (в том числе используя шинглы) все равно определяет дубли.
Если уже и делать наверняка, то путем фактической переписки контента... но это уже исск.интеллект :)
Или запиткой страниц жирными линками. Но бюджет на десятки тысяч страниц будет не детский :)
Да и пожестче закручивали - эффект тот же.
Насколько я понимаю смысла в такой перемешке нет.
Алгоритм гугла (в том числе используя шинглы) все равно определяет дубли.
Если уже и делать наверняка, то путем фактической переписки контента... но это уже исск.интеллект :)
Или запиткой страниц жирными линками. Но бюджет на десятки тысяч страниц будет не детский :)
Был сайтик который тянет контент с рсс фидов, для того чтобы свести процент идентичности по шинглам к минимуму текст новости сократили до 1-2 предложений, с дальнейшей ссылкой на сайт. Результат тот же.
ставьте линки, друзья.
сам вручную правда, делал пару страниц для домена, настаиваться. Настоялся, даже дает траф по нормальным запросам. По идее там контент у меня не уник.
Сайт 10 000 страниц. Был PR5 на морде. Было 20 страниц нормальных, остальные в сапплементале. Поставлены линки на морду с двух сайтов - морда PR5 и морда PR6 плюс 6-7 внутренних пятерок. Из сапплементала выскочило 700 страниц. Контент не уникальный, контента мало :) Кстати PR теперь упал до 4, но скорее всего просто не успел на апдейт
Ну в общем как обычно - жирные ссылки решают все :)
Берешь ли чужой контент или пишешь свой.
Эх, где справедливость :)
Ну в общем как обычно - жирные ссылки решают все :)
Берешь ли чужой контент или пишешь свой.
Эх, где справедливость :)
Сделал вот сайт недавно на 16 страниц, ну думаю гуглу же надо оригинальный, давай с пальца писать, все свое. Захожу после индекса, а все в суплиментале, вот вам и гугл.
Ссылки рулили и будут рулить, а кто себе их не может позволить купить или сделать так что бы другие ставили, тот и будет в суплиментале, в конце выдачи.
Горькая правда, и что бы там не говорил Гугла, до справедливости ему еще далеко. Если оригинальный сразу в суплименал.😕
Сделал вот сайт недавно на 16 страниц, ну думаю гуглу же надо оригинальный, давай с пальца писать, все свое. Захожу после индекса, а все в суплиментале, вот вам и гугл.
Ссылки рулили и будут рулить, а кто себе их не может позволить купить или сделать так что бы другие ставили, тот и будет в суплиментале, в конце выдачи.
Горькая правда, и что бы там не говорил Гугла, до справедливости ему еще далеко. Если оригинальный сразу в суплименал.😕
Дело в том, что сапл резалт не ориентируется только на дубликат контента. Мат Катс писал, чт оу него на блоге тоже есть такие страницы (он то я вно не ворует контент :)). Поэтому при попадании в сапл резалт не стоит все валить на контент.
Да и по теории ПР, чем больше ссылок на страницу (суммартный вес), тем выше вес страницы. А что есть вес и ПР изначально - это популярность страницы. А как страница может быть непопулярной, если на нее стоит скажем много ссылок? :)