- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Собственно, снижение началось с марта. На графике видно, что трафик начал снижаться через некоторое время после введения Баден-бадена и продолжает делать это до сих пор. При этом Гугл с этой точки наоборот начал расти.
Если это баден-баден (что на 90% и есть), то как выяснить, какие тексты пессимизируются? (да, я не веду статистику запросов)). И как при этом не навредить Гуглу, устраняя "переспам"? (он там точно не сильный, но в некоторых документах может быть, например, ключ несколько раз в h2)
Все равно придется с каждой страничке (что вообще используются для продвижения) - вычислять запрос.
Как это сделать, посоветуйте пожалуйста.
Откуда я ваш сайт знаю. Обычно товары или заголовки.
Если это баден-баден (что на 90% и есть), то как выяснить, какие тексты пессимизируются?
Для начала в панели Вебмастера посмотреть, какие страницы некачественные, какие посчитаны дублями. Это часть ББ.
Этот сайт? www.pet4me.ru
Ну да, этот
В вебмастере вижу, что появились какие-то дубли урлов, написанные капслоком
Пример
/MNENIE-EKSPERTA/PRIVIVKI-DLYA-KOSHEK-DELAT-ILI-NET
Дубль
28.09.2017
Страница дублирует уже представленную в поиске страницу http://www.pet4me.ru/mnenie-eksperta/privivki-dlya-koshek-delat-ili-net. Укажите роботу предпочтительный адрес с помощью 301 редиректа или атрибута rel="canonical".
И таких примеров масса. Как понять, откуда они взялись? И вот он их добавляет, потом признает дублями, потом опять добавляет.
Второе, что вижу, индексация результатов поиска и комментариев, которые признаны дублями, но в роботс.тхт они закрыты от индексирования...
/search/node/Котенок абиссинец один месяц
Дубль
10.09.2017
Страница дублирует уже представленную в поиске страницу http://www.pet4me.ru/search/user/Котенок абиссинец один месяц. Укажите роботу предпочтительный адрес с помощью 301 редиректа или атрибута rel="canonical".
А, да тут судя по симптомам вообще все лечить. Для начала посмотрите внешние и внутренние (на "неправильные"). Потом (или до) - чем-нибудь отсканировать (например халявной xenu). Ну и т.д.
в роботс.тхт они закрыты от индексирования...
Значит, не закрыты. от индексирования. Ошибки в роботсе ищите.
Используйте тег каноникал. На комментариях тоже. На результатах поиска еще поставьте тег noindex.
Спасибо, буду разбираться
------случайное