Копипаст и "своя" линкопомойка.

12 3
KL
На сайте с 30.03.2011
Offline
17
1535

Короче сайт зацепил фильтры, PR и ТИЦ упали в 0.

Допускаю 2 варианта - контент на сайте - 90% копипаст (пользователи ведут блог)

Линкопомойка, в которой все ссылки были внутренними (создавалась для индексации ссылок сапой)

Как определить какой фильтр зацеплен и как вытаскивать сайт ? (линкопомойка уже удалена) Ориентируясь на noname, вообще не понимаю в чем дело - у них все то же самое.

ЗЫ сайт moole.ru

Пишу качественный 95-100% уникальный контент от 0.8$ за 1000 зн (без пробелов), любая тематика, любые объемы, различные условия. Скайп - Viva_La_Ghetto, mail - cn.seo.copy@gmail.com
Mr.Smile
На сайте с 10.01.2011
Offline
65
#1

У вас страницы выпали? Сколько %?

Скорей всего это не фильтр, а пессимизация за копипаст.....

<--TTT-->
KL
На сайте с 30.03.2011
Offline
17
#2

Проследить выпали страницы или нет не мог, взялся за сайт только на этой неделе, а падение ТИЦ и ПР было месяц назад. Не знаю имеет значение или нет, но еще вот такое письмо в WMTools пришло

"Робот Googlebot столкнулся с проблемами при сканировании вашего сайта.

Робот Googlebot обнаружил чрезвычайно большое количество ссылок на вашем сайте. Это может свидетельствовать о проблеме, связанной со структурой URL-адресов сайта. Возможно, робот Googlebot без необходимости сканирует большое количество различных URL, указывающих на идентичное или похожее содержание, либо сканирует разделы сайта, не требующие сканирования. В результате робот Googlebot может потреблять гораздо больше ресурсов канала передачи данных, чем необходимо. Кроме того, есть вероятность, что он не сможет полностью просканировать все содержание сайта."

Пессимизация за копипаст - другие подобные ресурсы тоже на 80-90% состоят из копипаста и имеют PR 4-5 и ТИЦ немаленький. У меня посещаемость в районе 15000 в день, из них 65-70% - активные блоггеры, ну не заставлю же я их рерайты на новости писать ?

KeLvin88 добавил 30.03.2011 в 16:00

ЗЫ. Адсенсе тоже отказали...

KeLvin88 добавил 30.03.2011 в 16:12

запрос site:moole.ru/& - 15 000 страниц

запрос site:moole.ru - 400 000 страниц

[Удален]
#3

KeLvin88, может быть, поисковики просчитываю процент копипаста, и при превышении некоторой цыфры пессимизируют...

KL
На сайте с 30.03.2011
Offline
17
#4

Если я со ср...ми 15000 не вывожу уник на этот процент, то что ж делают noname, i.ua и прочие ??? Заказывают на 100$ в день копирайта ???

Mr.Smile
На сайте с 10.01.2011
Offline
65
#5

KeLvin88, На вашем сайте не совсем корректный robots.txt

Директиву User-Agent: * дважды повторять не стоит....

Многие пути которые у вас открыты нужно закрыть...

Сколько вашему сайту лет?

ТИЦ у вас есть... 130.... А PR действительно равен 0....

По запросам сильно просели?

KL
На сайте с 30.03.2011
Offline
17
#6
Mr.Smile:
KeLvin88, На вашем сайте не совсем корректный robots.txt

Директиву User-Agent: * дважды повторять не стоит....

Многие пути которые у вас открыты нужно закрыть...

Сколько вашему сайту лет?

ТИЦ у вас есть... 130.... А PR действительно равен 0....

По запросам сильно просели?

Спасибо за ответ

Семантического ядра, как такового нет, по этому сложно определить динамику по запросам. Сайту около 2.5 года, но он был с нуля восстановлен, после пожара на серверной в Одессе. А что значит закрыть пути ? Урлы лишние почистить ?

Mr.Smile
На сайте с 10.01.2011
Offline
65
#7

KeLvin88, Нет. Просто используйте этот robots.txt :

User-agent: *

Disallow: /go/

Disallow: /links.php

Disallow: /user/

Disallow: /*print

Disallow: /backup/

Disallow: /language/

Disallow: /templates/

Disallow: /upgrade/

Disallow: /autobackup.php

Disallow: /?do=lastcomments

Disallow: /statistics.html

Sitemap: http://сайт/sitemap.xml

User-agent: Yandex

Disallow: /go/

Disallow: /links.php

Disallow: /user/

Disallow: /map/

Disallow: /*print

Disallow: /backup/

Disallow: /language/

Disallow: /templates/

Disallow: /upgrade/

Disallow: /autobackup.php

Disallow: /?do=lastcomments

Disallow: /statistics.html

Host: сайт

Sitemap: http://сайт/sitemap.xml

Я считаю этот robots.txt наиболее оптимальным для DLE. Слово "сайт" заменить не забудьте.

Скорей всего все проблемы из-за этого robots.txt. Наверно ваша CMS нагенерировала дублей и они были не закрыты в robots.txt. В итоге общая иник. стала ещё меньше и сайт был пессимизирован.

Используйте robots.txt который выше и ждите...

KL
На сайте с 30.03.2011
Offline
17
#8

Сэнкью вери дякую

Mr.Smile
На сайте с 10.01.2011
Offline
65
#9

А сколько раньше ТИЦ был?

KeLvin88:
Семантического ядра, как такового нет

Ядро всегда есть... Смотрите на статистику переходов в яндекс.Метрике или Гугл Аналитикс, там указаны основные фразы-поставщики трафика они и есть Сем. ядро.... Наблюдайте за ними....

Mr.Smile добавил 30.03.2011 в 18:15

KeLvin88:
дякую

будь ласка ;)

KL
На сайте с 30.03.2011
Offline
17
#10

ТИЦ был под 400. Ключевики я ясен пень смотрю, но динамику не проследишь. "Волочкова упала", "Путин пукнул" и так далее, нестабильные запросы - сегодня их ищут тысячи, а завтра они никому не нужны

12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий