- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Проблема следующая: Search Console говорит что есть 1800 страниц не проиндексированных (cms wordpress). Причины - редиректы, 404, заблокирована роботс итд. Смотрю что за страницы - это какие то старые пермалинки, удаленные страницы, на которые естесственно нигде на сайте ссылок не стоит. Выглядит, как будто сайт дико мусорный. Я не могу найти источника этих страниц и как их убрать. Их вручную удалять из Search Console? или вобще не париться по этому поводу? ошибки SC присылает при этом. Смотрю ссылающиеся страницы на этих "призраков" - там вроде не проставлено никаких ссылок на старые страницы, когда смотрю в исходном коде.
При сканировании Screaming Frog нет никаких битых ссылок или редиректов.
Причины - редиректы, 404, заблокирована роботс итд
на каждый пункт применяются соответствующие методы анализа и исправления. И у норм.сайтов все это есть в какой то степени. Нужна конкретика для разбора.
на каждый пункт применяются соответствующие методы анализа и исправления. И у норм.сайтов все это есть в какой то степени. Нужна конкретика для разбора.
Ну изза темпа загрузки SC мне не удалось просмотреть очень много этих страниц. Тем не менее типичные ситуации
1) Удалены изза 404 ошибки - страницы продуктовых тегов
Ссылающаяся страница - стр товара в наличии, но ссылки на нем не стоит.
2) Страница удалена изза редиректа (продукт тег) - смотрю ссылающуюся на нее страницу, на ней не стоит ссылки.
Страница удалеена изза редиректа, на нее ссылается тоже страница с редиректом
Страница удалена изза редиректа, старый продукт, на него ссылается его же http версия.
И так 780 стр.
3) Страница обойдена но не проиндексирована - там 404 е лежат и /feed
Он будто запоминает все адреса которые когда либо где либо фигурировали и хранит их вечно, хотя ссылок на них не стоит уже нигде.
Я думаю есть ли смысл их удалять вручную из SC?
или вобще не париться по этому поводу?
да
все старые 404 со временем выпадут , главное что бы в коде не было ссылок на них, и не было внешних ссылок
Он будто запоминает все адреса которые когда либо где либо фигурировали и хранит их вечно, хотя ссылок на них не стоит уже нигде.
Я думаю есть ли смысл их удалять вручную из SC?
с недавнего времени(после обновления) SC содержит такие ссылки и не удаляет их. Мало того и в подсказках гугл пишет,чтоб на определенные моменты кот.выглядят как ошибки вы не парились, как и пишет выше коллега.
Главное чтоб не было очевидных ошибок, на которые вам должны прийти сообщения от гугл.