- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт, который давным давно попал под фильтра гугла за неуникальный контент (Панда) по датам наложения фильтра вроде как было похоже. Сайт делается в общем-то "для души" и нескольких лояльных постоянных пользователей, потому в свое время я на это не обратил внимание, сосредоточившись на основных проектах. Сейчас немного дошли руки для этого сайта.
Собственно вопрос в том, для выхода из под этого фильтра, неуникальный контент обязательно именно удалить, или достаточно добавить в meta "robots noindex"? Также еще есть вариант, отдавать на этих страницах 403, то есть сделать их доступным только зарегистрированным пользователям, либо пользователям принимающим куки (в этом случае вопрос, не посчитает ли гугл это клоакингом).
А как вы определили фильтр панда?
Не надо ничего удалять. Переписывайте материал, доводите до уникальности. Будет и для вас, посетителей и для ПС счастье. Тем более что информация на вашем копипасте 100% устарела. Вот и пишите что актуально сегодня.🚬
А как вы определили фильтр панда?
По дате. Давно это было сейчас не нагуглю. Но был список дат, и у меня дата уменьшения трафика совпала с этим списком.
Не надо ничего удалять. Переписывайте материал, доводите до уникальности. Будет и для вас, посетителей и для ПС счастье. Тем более что информация на вашем копипасте 100% устарела. Вот и пишите что актуально сегодня.🚬
Вот не надо относиться ко всем сайтам в интернете, как к трафикособирающим статейникам. Это поисковая система по определенному материалу. Людям нужная функция - именно поиск. Но после поиска желательно иметь возможность материал просмотреть. Там не весь материал старый, есть и новый но тоже копированный, но старый тоже нужен. Изменять ничего нельзя - тогда смысл вообще пропадет. Можно дополнять дополнительными данными и как-то за счет этого "уникализировать" но так я делал бы если бы это был бы коммерческий проект. Для некоммерческого овчинка выделки не стоит.
Потому варианты такие:
1. meta noindex
2. 403
3. 404 с клоакингом
4. Ничего не делать
Тут по статейнику то сложно что то заочно сказать, а у вас метапоисковик тематический, его ведь сильно по разному можно реализовывать.
Смотрели данные Гугл вебмастера, какой там в покрытии примерный процент исключенных страниц, особенно со статусом Страница просканирована, но пока не проиндексирована и Страница является копией?
Какие типы страниц там являются посадочными для Гугла?
Смотрели данные Гугл вебмастера, какой там в покрытии примерный процент исключенных страниц, особенно со статусом Страница просканирована, но пока не проиндексирована и Страница является копией?
"Просканирована но пока не проиндексирована", для данного раздела сайта, больше чем 95%. "Является копией" - такого нет вообще на сайте (не только для данного раздела).
Какие типы страниц там являются посадочными для Гугла?
Посадочные - страницы других разделов сайта. Для данного раздела посадочная - только страница с формой поиска. То есть убирать страницы можно вообще не парясь. Однако нужно их оставить доступными для пользователей, в том числе и для незарегистрированных.
---------- Добавлено 17.11.2019 в 16:49 ----------
его ведь сильно по разному можно реализовывать.
Страниц с результатами поиска в индексе нет и ссылки на них гуглу не доступны (кроме как через гугл аналитикс). Но [почти] все страницы материалов, по которым делается поиск, - на данный момент доступны индексированию и известны гуглу. Вот речь о том, как их правильно убрать. Единственно что я понимаю, что через robots.txt - точно нельзя.
Я пока вписал им meta noindex. Но вот думаю может лучше на них отдавать 403 или 404 тем у кого нет куки.
Всего страниц в разделе который нужно убрать около 350000 Гугл скачивает краулером в день именно из этого раздела (данные из анализа логов) обычно по 10000 страниц, иногда по 20000, но скачивает неравномерно многие скачивает повторно с интервалом 5-10 дней.
Я бы тоже в такой ситуации остановился на meta noindex. Не уверен конечно на 100%, не видя пациента и всей ситуации, но исходя из указанной инфы думаю лучший вариант