- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, товарищи!
Прошу прощения если баян. Гугл не сильно помог в поиске этого вопроса.
Есть у меня один экспериментальный ГС. Хоть и ГС, но не охота получать санкции, так как эксперименты считаю полезными)
В общем, суть в том, что для красоты выдачи был настроен htaccess в духе:
RewriteRule ^([-a-z0-9/]*)/?$ index.php?id=$1 [L,QSA]
всё, что после site.ru/... , берется GETом и отправляется на сайт-донор и парсит соответствующую страницу.
Дело в том, что актуальность этих страниц часто бывает не больше пяти дней. Для того, чтобы поисковики меня сразу не запинали за сплошной 404, я сделал так, что если сайт-донор не дает контент, то на моем сайте просто в шаблоне страницы вместо контента выводится "Не найдена информация по данному запросу". И вроде бы всё ок, страницы индексируются, попадают в поиск, даже появляется трафик, но сейчас я вижу, что Яндекс загрузил больше 30к страниц в поиске 13к страниц. Но ведь ежу понятно, что большая часть страниц в поиске - "не найдено информации", так как они туда попали уже давно и это уже не актуальны. Да и вообще, с такими настройками после site.ru/ можно написать вообще что угодно и страница как будто есть, но реально это пустышка.
Собственно вопрос. Как мне не "влететь" с такими приколами? Как яндекс будет реагировать когда у меня этих загруженных страниц будет стопицот миллионов? Ведь если представить чисто теоретически ручную проверку, то я могу получить какой-нибудь АГС за такие псевдо страницы. Или нет? Тут же еще момент такой, что когда страница актуальна, то подгружается и контент и мета-теги и заголовки, а когда выпадает, то там везде пустота. Меня как-то давно гугол забанил на месяц из-за того, что я сменил дизайн на WP, а ему показалось, что я обманываю пользователей, так как в индексе "одно", а на деле "другое". Ну и как правильно поступить, чтобы избежать проблем? На сколько я понимаю, то эти страницы неплохо было бы отправлять в исключенные в том же вебмастере. Это можно сделать только выдав 404 или есть другие методы?