bodofix

bodofix
Рейтинг
41
Регистрация
29.08.2013

Кто та гадит вам добавляя эти страницы через ADD URL гугла или соц., так как статус Вашей 404 страницы - HTTP/1.1 200 OK, а надо HTTP/1.1 404 Not Found

https://ru.wikipedia.org/wiki/%D0%A1%D0%BF%D0%B8%D1%81%D0%BE%D0%BA_%D0%BA%D0%BE%D0%B4%D0%BE%D0%B2_%D1%81%D0%BE%D1%81%D1%82%D0%BE%D1%8F%D0%BD%D0%B8%D1%8F_HTTP

september:
главное, чтобы сайт грузился нормально

с этим согласен на 100%.

Возможно этот сайт вообще чей-то эксперимент. Тестируют какой то чернявый метод и устойчивость сайта к фильтрам. Интересно, никто не звонил на номера указанные на сайте?😂

september:
Э-э-э, а разве они вообще влияют на любовь гугла к сайту?

Косвенно, думаю да. Тем более такие. Если google умеет анализировать текст на наличие орфографии, спама и т.д., то вероятнее всего он способен анализировать корректность верстки. Конечно же, этот фактор имеет очень низкое влияние. Экспериментов не ставил, чтоб узнать наверняка, но предпочитаю проверять сайты на наличие таких ошибок, спать спокойней да и в конечном итоге легче будет понять почему позиции не лезут, к примеру.🙄

flacon2000:
А за что фильтр? Сайт вроде вполне себе СДЛ.

Полагаю что за переоптимизацию и ошибки вида -


</head>
<!DOCTYPE html>

А так же, возможно, за скачки ссылок -

Качество доноров не проверял, вряд ли там что-то толковое...

Не думаю, что продержится долго...Это SEO на несколько мес., а дальше фильтр. Потом новый сайт по такому же шаблону. Кстати дело не только в ссылках но походу и в количестве текста на стр. 10к символов, а так же перелинковка. Просто качественный дор. А вхождение на такой объем текста вполне вменяемый как по мне.

Мне кажется, просто не хватает внутреннего веса странице. Наличие внешних ссылок не гарантирует топа. Поработайте с внутренней оптимизацией, соц.сигналами. Иногда увеличение контента на странице помогает подтянутся.

2 - сайта комм. строительной тематики, обвала не обнаружено, только рост. Может обошло стороной?

Сделайте сначала 3 фильтра, а потом будете думать, стоит ли прыгать выше головы или нет. Если выйдете в топ 10 по всем комбинациям это уже будет большой профит:) Еще как вариант зайди в WM в раздел Сканирование -> параметры URL укажите вручную данные сортировки как то так.

Зачем вообще скармливать страницы с которых практически невозможно получить трафика? Я думаю достаточно сделать 3х вхождений в фильтр, остальное отсекать. И добавить еще фишку например если выбрали 3 фильтра во все фильтры добавляется тег rel="nofollow". Еще можно внедрить -

как тут на фильтрах сделана линковка http://jam.ua/portable_keyboards/digital_piano/grand_piano/price_ar_2 . Как организовать? В этом поможет ваш программист:)

Pavelcreative:
Фильтры могут быть в разном порядке?
К примеру [папка конверт на кнопке а5] и [папка а5 конверт на кнопке] -что будет в данном случае?
Как вариант закрывать все фильтры, с доп. параметрами.
К примеру site.ru/podrazdel/?id=1-212,2-1231,5-12312
Закрываем все, где есть запятая - Disallow: /*,
Robots.txt tester

Каждая запятая, я так понял, это разделитель выбранного фильтра. Если закрыть запятые то не будут индексироваться 2 и более параметра. Надо дать задание программисту, например чтоб убрать такие варианты -

Фильтры с одинаковыми значениями, нов разном порядке:

page 1: site.ua/filter=а,b,c

page 2: site.ua/filter=b,c,a <link rel="canonical" href="page 1">

page 3: site.ua/filter=c,a,b <link rel="canonical" href="page 1">

...и т.д

Закрывать не придется и правильней будет.

---------- Добавлено 19.08.2014 в 14:07 ----------

15hforz:
Что означает закрыть уровень фильтров более 3х, 4х? И как это можно реализовать?

Программист сделает. Делаете условие если фильтров выбрано больше 3х или 4х, то закрываем страницу.

1 234 5
Всего: 42