- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайтик на котором все статьи уник, писались вручную, только несколько рерайт.
Страниц не под фильтром всего 2%, хоть в роботсе вроде все правильно прописано.
Кто что скажет по этому поводу?
Посоветуйте пожалуйста!
Буду признателен и в долгу не останусь.
Сайт: http://seoshneg.com/
Таким роботс можно голову сломать. Ответьте сам себе: этот файл необходим?
Я нашел 500+ страниц не под "фильтром". Страниц всего 25000?
там вроде всего 8 страниц без проблем - http://www.google.ru/search?q=site:seoshneg.com%2F%26&filter=0&ie=UTF-8&oe=UTF-8
2топикстар, не уверен, но возможно проблемы в:
http://validator.w3.org/check?uri=http%3A%2F%2Fseoshneg.com
http://jigsaw.w3.org/css-validator/validator?uri=http%3A%2F%2Fseoshneg.com
Очевидно, google не видит в страницах ничего привлекательного, раз занес их в «сопли». Имхо, надо работать над оптимизацией.
Вам нужно почитать требования Google по оптимизации страниц (У них есть такая страница с требованиями, поищите). Я мельком посмотрел и могу сказать, что у Вас есть недочеты, например, что сразу бросается в глаза, так это отсутствие мета-тэгов. Сделайте их - это не сложно. У Вас около 200 ссылок и 95% на главную страницу. Ссылки - это хорошо, но ставьте на внутренние страницы тоже или же проведите грамотную перелинковку. Основные причины выбрасывания страниц в так называемые сопли - это недостаточная оптимизация, копипаст и статьи, которые мало относятся к общей тематике ресурса. И еще, закройте облако тегов от роботов. Вордпресс - коварная CMS, поэтому удостоверьтесь в том, что у Вас нет дублей страниц и других сюрпризов от CMS.
Спасибо за ответы, попробую закрыть облако тегов, и ссылок добавить на внутренние страницы.
Вам нужно почитать требования Google по оптимизации страниц
Страницы нужно не оптимизировать, а делать сразу так, как нужно. Это должно в голове сидеть как "какой рукой вилку держать". Оптимизировать нужно либо программерские штучки, либо наследие 90-х (заодно и десигн сменить).
Не понимаю все равно. Роботс нормально создан а в гугле 400 страниц в поиске, хотя не должно столько быть. Текст нормально перелинкован и не копипаст, иногда копипаст в индексе с первых дней держится.
Возможно из за шаблона? До его смены было все нормально.
Возможно из за шаблона? До его смены было все нормально.
Похоже на то... ошибок в коде что-то довольно много, кстати вам дали ответ на этот вопрос еще в третьем комментарии, не поленитесь пройти по ссылкам:
топикстар, не уверен, но возможно проблемы в:
http://validator.w3.org/check?uri=http%3A%2F%2Fseoshneg.com
http://jigsaw.w3.org/css-validator/validator?uri=http%3A%2F%2Fseoshneg.com
Я вошел в роль парсера и разобрал страницу по секциям, а потом и по тэгам. Нет там ничего такого, что могло бы ввести в заблуждение бот или что нельзя было бы замазать тональным кремом встроенными средствами бота или браузера. Дело в чем-то другом, возможно, во внешнем или временном.
P.S. аттрибуты — пофиг
Да и ошибки кода к такому привести не могли, я уже и их начал исправлять.