- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
/search/node/Котенок абиссинец один месяц
Дубль
10.09.2017
Страница дублирует уже представленную в поиске страницу http://www.pet4me.ru/search/user/Котенок абиссинец один месяц. Укажите роботу предпочтительный адрес с помощью 301 редиректа или атрибута rel="canonical".
- Ошибки проектирования сайта.
Должно быть /search/Котенок , А не /search/Юзер1/Котенок , /search/Юзер2-и-тд/Котенок - Вы сами дубли запрограмировали.
- Рабочая страница должна отдавать ответ сервера - 200, всевозможные дубли - 404
И исправьте ответ сервера - Expires: Sun, 19 Nov 1978 05:00:00 GMT , а то вам никакой баден не поможет🍿
В хэлпе яндекса, гугла описано, что должно отдаваться
Я нашла ошибку, она оказалась в другом
Может, кому-то еще пригодится
Яндекс перестал воспринимать директивы из роботс.тхт, если Agent указан как *, и соответственно все закрытые в роботсе каталоги попали в индекс.
Скопировала все директивы, указав agent Yandex, они закрылись от робота
---------- Добавлено 10.11.2017 в 14:28 ----------
- Ошибки проектирования сайта.
Должно быть /search/Котенок , А не /search/Юзер1/Котенок , /search/Юзер2-и-тд/Котенок - Вы сами дубли запрограмировали.
- Рабочая страница должна отдавать ответ сервера - 200, всевозможные дубли - 404
И исправьте ответ сервера - Expires: Sun, 19 Nov 1978 05:00:00 GMT , а то вам никакой баден не поможет🍿
В хэлпе яндекса, гугла описано, что должно отдаваться
Результаты поиска вообще не должны были индексироваться и не индексировались 2 года
Яндекс перестал воспринимать директивы из роботс.тхт, если Agent указан как *, и соответственно все закрытые в роботсе каталоги попали в индекс.
Скопировала все директивы, указав agent Yandex, они закрылись от робота
Да неужели? А больше он ничего не стал делать? Кто ж такие сказки рассказал?
Яндекс перестал воспринимать директивы из роботс.тхт, если Agent указан как *, и соответственно все закрытые в роботсе каталоги попали в индекс.
Вы не нашли ошибку, ищите дальше - http://prntscr.com/h8n6p1
И, кстати, согласно вашей выдержки, дубли появились в сентябре-октябре и успешно удалены самой поисковой системой.
Так что причина не в этом.
Насколько помню, алгоритм не поменялся:
- ищете страницы, которые собирали трафик и потеряли,
- анализируете почему (украли контент, "средний объем по больнице стал больше" и т.д.),
- исправляете и смотрите за позициями и трафиком.
Повторять итерации пока посещаемость не вернется на прошлый уровень.
не совсем в тему, но промелькнуло то, что и у себя заметил.
В ПС в вебмастере яндекс начал ругаться на урлы, а именно сам сначала находит страницы которые написаны как бы капсом (в моем случае только часть урла, пример product-model-B-0122, хотя на сайте везде строчные буквы) и вычеркивает их
что это такое за фишка у него и откуда она?
Пока только выписал и озадачился, не знаю что делать и на что обратить внимание.
не совсем в тему, но промелькнуло то, что и у себя заметил.
В ПС в вебмастере яндекс начал ругаться на урлы, а именно сам сначала находит страницы которые написаны как бы капсом (в моем случае только часть урла, пример product-model-B-0122, хотя на сайте везде строчные буквы) и вычеркивает их
что это такое за фишка у него и откуда она?
Пока только выписал и озадачился, не знаю что делать и на что обратить внимание.
Вот и у меня то же самое произошло с некоторыми страницами. Я пока сделала редиректы с капсов на обычные урлы, а то он капсы проиндексировал, а норм. урлы выкинул
---------- Добавлено 10.11.2017 в 19:26 ----------
Да неужели? А больше он ничего не стал делать? Кто ж такие сказки рассказал?
Вебмастер Яндекса. Со * не видел строки с директивами, а с указанием отдельно Яндекса - увидел
Директивы не менялись
---------- Добавлено 10.11.2017 в 19:36 ----------
Вы не нашли ошибку, ищите дальше - http://prntscr.com/h8n6p1
И, кстати, согласно вашей выдержки, дубли появились в сентябре-октябре и успешно удалены самой поисковой системой.
Так что причина не в этом.
Насколько помню, алгоритм не поменялся:
- ищете страницы, которые собирали трафик и потеряли,
- анализируете почему (украли контент, "средний объем по больнице стал больше" и т.д.),
- исправляете и смотрите за позициями и трафиком.
Повторять итерации пока посещаемость не вернется на прошлый уровень.
Удалены, потом снова добавлены, потом снова удалены, потом снова добавлены. И так каждый день несколько урлов танцевали.
Страницы поищу, спасибо
Вебмастер Яндекса. Со * не видел строки с директивами, а с указанием отдельно Яндекса - увидел
Директивы не менялись
Кто вам это сказал?
Хотя, о чем мы. Роботс покажите. Нашли несуществующую проблему блин.
Повторюсь, Вебмастер сказал) Я же проверяю им и роботс.тхт и урлы
Я ничего не меняла, кроме замены * на Яндекс в поле Юзер-агент, но до этого сервис проверки в Вебмастере показывал урлы открытыми, а теперь показывает закрытыми
Я не утверждаю, что причина проседания именно в этом, но по крайней мере я поняла, почему раньше не срабатывал роботс.тхт и начали индексироваться ранее закрытые разделы (сайту больше 2 лет, роботс висел все это время, не менялся и серч и комент не индексировались, а тут вдруг стали)
Повторюсь, Вебмастер сказал) Я же проверяю им и роботс.тхт и урлы
Значит у вас роботс был кривой
Я ничего не меняла, кроме замены * на Яндекс в поле Юзер-агент, но до этого сервис проверки в Вебмастере показывал урлы открытыми, а теперь показывает закрытыми
Понятно, то есть вы вообще не знаете о robots.txt
Ну значит не знаю
2 года был кривой и было ок, а тут вдруг.