- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
скажите, вот никогда не уделял внимания контенту, дублированному в смысле, ибо сетки не мастрячу, а для себя пишу сам. Одним сайтом давно не занимался в плане подлива внешних ссылок и он в течение неск. месяцев спустился из Топа в 100-ку. На нем достаточно жира чтобы быть все же ближе к ТОпу. Теперь вот задумался, может надублировали контент на моем сайте, и теперь он стал вабще ни грамма не укальным и сайт просел теперь? Может из-за этого просесть?
Но ведь пишут, что даже неуник помогает собрать НЧ. А там думаю без внешних ссылок обходятся.
говорят да не всё
если неуник разместить на сайте со стажем 10 лет и одним беком , так всем копиям на сегодняшних доменах с тысячами беков не хватит его переплюнуть (если беки конечно не из вон из ряда )
То есть для гугла супер важен именно возраст домена, он на это в первую очередь смотрит чтоли?
То есть для гугла супер важен именно возраст домена, он на это в первую очередь смотрит чтоли?
Не впервую, но роль играет не малую.
То есть для гугла супер важен именно возраст домена, он на это в первую очередь смотрит чтоли?
нет точных ответов - анализируйте в своих темах сами
Имхо, неуник неунику рознь. Одно дело дёргать статьи с 20-ти источников и вешать на блоге, а другое - полное дублирование другого сайта (вместе со структурой).
Во втором случае гугл выберет один наиболее трастовый, а при выборе он будет руководствоваться всем - возраст домена, ссылки и т.д.
Остальные схожие сайты запихнёт под фильтр.
Так что лучше сразу нанимать копирайтера/рерайтера :)
Есть 4 сайта, которые сидят в топе по СЧ - обзовем так запрос - с дублированным контентом (своим никогда не пользовался). Сидят давно. Где оригналы - без понятия, за ниим не слежу.
До этого сидели и по ВЧ сайты больше года. Улетели из-за фильтра на ссылки (это 100%)
говорят да не всё
если неуник разместить на сайте со стажем 10 лет и одним беком , так всем копиям на сегодняшних доменах с тысячами беков не хватит его переплюнуть (если беки конечно не из вон из ряда )
т.е. тут играет роль трастовость домена, тобишь ПР по гуглу, так?
PageRank засуньте куда подальше. Это уже не более чем тупая пузомерка.
если неуник разместить на сайте со стажем 10 лет и одним беком , так всем копиям на сегодняшних доменах с тысячами беков не хватит его переплюнуть (если беки конечно не из вон из ряда )
Соглашусь с redhorse - все примерно так и есть.
Если вы успешно копируете инфу из кучей разных блогов (что многие блоггеры как раз и делают =) ) - то ваш сайт вполне нормальный. И банить за дубль никто не будет.
Вот если у вас копии уже всего парочки тройки сайтов - тады да, можно попасть ... я под такой фильтр попадал, не понравилось.
На блогах своих этого фильтра вообще не знал, потому что источников всегда было много.