- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вот такая проблемес. Рандомно залетают страницы в раздел ошибки, естественно никаких нет комментариев, просто ошибка и все. Куда копать ? Помогите.
А если серьезно, позвони в гугл и спроси.
Вот такая проблемес. Рандомно залетают страницы в раздел ошибки, естественно никаких нет комментариев, просто ошибка и все. Куда копать ? Помогите.
Так дайте полный скрин, какой характер ошибки?
p.s. Если ведете также контроль в Яндекс.Вебмастере, посмотрите нет ли там критических сообщений по поводу приведённых URL-ов.
Вот такая проблемес. Рандомно залетают страницы в раздел ошибки, естественно никаких нет комментариев, просто ошибка и все. Куда копать ? Помогите.
у меня в такой статус входят :
-мпк (мало текста)
-с ошибочныими параметрами в урле
-просто к кот.не дошла очередь индексации
Вот такая проблемес. Рандомно залетают страницы в раздел ошибки, естественно никаких нет комментариев, просто ошибка и все. Куда копать ? Помогите.
Это не ошибка страницы или индекса. Это ошибка проверки статуса если он не изменился - значит ошибку вам показывают.
Вот такая проблемес. Рандомно залетают страницы в раздел ошибки, естественно никаких нет комментариев, просто ошибка и все. Куда копать ? Помогите.
Это значит, что по какой-то причине Гугл не хочет индексировать страницы и потому показывает ошибку. У меня такое бывает периодически — иногда нужно несколько раз отправить эти страницы на перепроверку, и спустя какое-то время проиндексирует.
Бывает и обратное: когда Гугл не хочет убирать из индекса определённые страницы. Даже запрет индексации в роботс тхт иногда не помогает, т.к. роботы Гугла могут игнорировать его. Там тоже помогает отправка на перепроверки.
Это значит, что по какой-то причине Гугл не хочет индексировать страницы и потому показывает ошибку
Гугл не показывает ошибку, а только статус страницы, по которой можно иногда понять по какой причине не проиндексировано.
Бывает и обратное: когда Гугл не хочет убирать из индекса определённые страницы. Даже запрет индексации в роботс тхт иногда не помогает, т.к. роботы Гугла могут игнорировать его. Там тоже помогает отправка на перепроверки.
Гугл не показывает ошибку, а только статус страницы, по которой можно иногда понять по какой причине не проиндексировано.
просто надо ноиндекс в мета поставить . А роботс это для сканирования а не индексации.Нет, я к тому, что там надпись «Ошибка» выводится, а не конкретная причина.
Касаемо роботс: и всё же иногда помогает. Disallow: */? работает как надо, и в консоли показывает «Заблокировано в файле robots.txt».
Нет, я к тому, что там надпись «Ошибка» выводится, а не конкретная причина.
ошибка выводится при проверке смены статуса. Никаких ошибок нету в статусах страниц.
Нет, я к тому, что там надпись «Ошибка» выводится, а не конкретная причина.
Касаемо роботс: и всё же иногда помогает. Disallow: */? работает как надо, и в консоли показывает «Заблокировано в файле robots.txt».
роботс это рекомендация к сканированию и индексации. Гугл может спокойно запрещенные в роботсе индексить
Как я понял, гугел диендексировал страницы ( 1412 шт) и при повторной отправке на индекс произошел пик 1 посте. Через Indexing API загонял эти страницы, провисели почти три месяца.