- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет! Может быть, кто-нибудь поможет мне с такой проблемой:
Есть сайт https://haipovo.ru
В яндексе больше 1000 страниц в поиске, индексируется мгновенно.
А вот в гугле чуть больше 100 страниц попало в поиск и все, на этом все остановилось.
В гугл панели вебмастера вот такое уведомление:
"
Ошибка
Доступ к отправленному URL заблокирован в файле robots.txt"
На первом скрине показывает вот чего:
Файлы sitemap норм сканируются:
Файл robots txt корректный вроде как)))
https://haipovo.ru/yumor/vyskazyvaniya-velikih-lyudej-o-lyubvi/.html
А должно быть:
https://haipovo.ru/yumor/vyskazyvaniya-velikih-lyudej-o-lyubvi
Хотя с другой стороны Гугл проиндексировал чуток страниц именно с постоянными ссылками вида /.html
Помогите, пожалуйста, советом! Заранее спасибо!
А пример такого урла укажите.
Что мешает проверить URL инструментом проверки robots.txt от самого Гугла? Покажет блокирующую строчечку.
Ошибок анализ файла в гугле не выдает ничего
Ошибок анализ файла в гугле не выдает ничего
Подозреваю, что косячина именно в дублировании. То, что у вас каноникализировано - может быть и проигнорировано, если есть какие-то веские для гуглобота причины.
У вас как минимум обе версии 200 отдают, и это напрасно.
Подозреваю, что косячина именно в дублировании. То, что у вас каноникализировано - может быть и проигнорировано, если есть какие-то веские для гуглобота причины.
У вас как минимум обе версии 200 отдают, и это напрасно.
Похожая проблема как-то с Яндексом была. Однажды появилась фатальная ошибка связанная с тем, что всякий мусор индексировался. Что-то с clean-param. Потом файл роботс поправил, все прошло. А вот Гугл второй год чет не индексит сайт совсем. Не подскажете, как решить проблему с дублированием?
Один чувак сказал, типа проблема с окончанием ссылок.
Начудил с постоянными в самом начале - случайно слеш поставил, теперь все статьи имеют окончание /html.ru
Хотя если убрать "/html.ru", оставив только адрес сайта категория название поста, страница открывается без ошибок.
теперь все статьи имеют окончание /html.ru
Ну настройте редиректы-то. Месяцок - и всё устаканится.
У вас с сайтом вообще проблемы какие-то. Попробуйте спарсить тем же Screaming Frog с Googlebot Smartphone в качестве User-Agent. Я попробовал скачать для анализа единственную страничку - обычно это занимает 5-10 секунд. В вашем случае парсер молотил 10 минут, слил тонны URL, к другой тонне не получил доступа, и прогресс остановился на 56%.
Это как бы тревожный сигнал-то. Техничка кривая.
Ну настройте редиректы-то. Месяцок - и всё устаканится.
У вас с сайтом вообще проблемы какие-то. Попробуйте спарсить тем же Screaming Frog с Googlebot Smartphone в качестве User-Agent. Я попробовал скачать для анализа единственную страничку - обычно это занимает 5-10 секунд. В вашем случае парсер молотил 10 минут, слил тонны URL, к другой тонне не получил доступа, и прогресс остановился на 56%.
Это как бы тревожный сигнал-то. Техничка кривая.
Особо ничего не понял, если честно, далек я от этого) Где искать спеца для помощи я не знаю. Может быть, вы возьметесь? Не за спасибо, конечно.
Особо ничего не понял, если честно, далек я от этого
Там ничего сложного. Вам для начала надо просто с адресов /.html настроить 301-е (постоянные) редиректы на урлы без них. Ну, и канонические адреса поправить с учётом редиректов. За месяц в среднем всё будет переклеено в индексе, и будет хорошо.
За сайт не возьмусь, вам, скорее, разработчик с опытом в WP нужен толковый. На форуме такие есть.
Надо понять, в чём сложности с обходом сайта гуглоботом. Как я уже сказал, я даже одну страничку полноценно спарсить не смог. Возможно, это были временные неполадки, но пачка ресурсов, к которым есть обращения UA, просто не отвечают.
Там ничего сложного. Вам для начала надо просто с адресов /.html настроить 301-е (постоянные) редиректы на урлы без них. Ну, и канонические адреса поправить с учётом редиректов. За месяц в среднем всё будет переклеено в индексе, и будет хорошо.
За сайт не возьмусь, вам, скорее, разработчик с опытом в WP нужен толковый. На форуме такие есть.
Надо понять, в чём сложности с обходом сайта гуглоботом. Как я уже сказал, я даже одну страничку полноценно спарсить не смог. Возможно, это были временные неполадки, но пачка ресурсов, к которым есть обращения UA, просто не отвечают.
По поводу файла 301. Постоянные ссылки уберу в настройках дурацкое окончание /html.ru.
А не скажется ли это на индексации сайта Яндексом? ПРосто сейчас он мгновенно индексируется.