Страницы не под фильтром всего 2%

12 3
[Удален]
1466

Есть сайтик на котором все статьи уник, писались вручную, только несколько рерайт.

Страниц не под фильтром всего 2%, хоть в роботсе вроде все правильно прописано.

Кто что скажет по этому поводу?

Посоветуйте пожалуйста!

Буду признателен и в долгу не останусь.

Сайт: http://seoshneg.com/

M
На сайте с 27.10.2006
Offline
111
#1

Таким роботс можно голову сломать. Ответьте сам себе: этот файл необходим?

Я нашел 500+ страниц не под "фильтром". Страниц всего 25000?

Бесплатное хранилище данных (http://bit.ly/gJYy9Z) (5GB) с синхронизацией. По ссылке — бонус 500MB.
igiodua
На сайте с 24.10.2008
Offline
135
#2

там вроде всего 8 страниц без проблем - http://www.google.ru/search?q=site:seoshneg.com%2F%26&filter=0&ie=UTF-8&oe=UTF-8

2топикстар, не уверен, но возможно проблемы в:

http://validator.w3.org/check?uri=http%3A%2F%2Fseoshneg.com

http://jigsaw.w3.org/css-validator/validator?uri=http%3A%2F%2Fseoshneg.com

[Удален]
#3

Очевидно, google не видит в страницах ничего привлекательного, раз занес их в «сопли». Имхо, надо работать над оптимизацией.

sokolenko
На сайте с 06.06.2010
Offline
67
#4

Вам нужно почитать требования Google по оптимизации страниц (У них есть такая страница с требованиями, поищите). Я мельком посмотрел и могу сказать, что у Вас есть недочеты, например, что сразу бросается в глаза, так это отсутствие мета-тэгов. Сделайте их - это не сложно. У Вас около 200 ссылок и 95% на главную страницу. Ссылки - это хорошо, но ставьте на внутренние страницы тоже или же проведите грамотную перелинковку. Основные причины выбрасывания страниц в так называемые сопли - это недостаточная оптимизация, копипаст и статьи, которые мало относятся к общей тематике ресурса. И еще, закройте облако тегов от роботов. Вордпресс - коварная CMS, поэтому удостоверьтесь в том, что у Вас нет дублей страниц и других сюрпризов от CMS.

[Удален]
#5

Спасибо за ответы, попробую закрыть облако тегов, и ссылок добавить на внутренние страницы.

M
На сайте с 27.10.2006
Offline
111
#6
sokolenko:
Вам нужно почитать требования Google по оптимизации страниц

Страницы нужно не оптимизировать, а делать сразу так, как нужно. Это должно в голове сидеть как "какой рукой вилку держать". Оптимизировать нужно либо программерские штучки, либо наследие 90-х (заодно и десигн сменить).

[Удален]
#7

Не понимаю все равно. Роботс нормально создан а в гугле 400 страниц в поиске, хотя не должно столько быть. Текст нормально перелинкован и не копипаст, иногда копипаст в индексе с первых дней держится.

Возможно из за шаблона? До его смены было все нормально.

2010
На сайте с 18.11.2009
Offline
60
#8
jensen:
Возможно из за шаблона? До его смены было все нормально.

Похоже на то... ошибок в коде что-то довольно много, кстати вам дали ответ на этот вопрос еще в третьем комментарии, не поленитесь пройти по ссылкам:

igiodua:
топикстар, не уверен, но возможно проблемы в:
http://validator.w3.org/check?uri=http%3A%2F%2Fseoshneg.com
http://jigsaw.w3.org/css-validator/validator?uri=http%3A%2F%2Fseoshneg.com
M
На сайте с 27.10.2006
Offline
111
#9

Я вошел в роль парсера и разобрал страницу по секциям, а потом и по тэгам. Нет там ничего такого, что могло бы ввести в заблуждение бот или что нельзя было бы замазать тональным кремом встроенными средствами бота или браузера. Дело в чем-то другом, возможно, во внешнем или временном.

P.S. аттрибуты — пофиг

[Удален]
#10

Да и ошибки кода к такому привести не могли, я уже и их начал исправлять.

12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий