- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В общем то сабж.
PageSpeed Insights пишет:
"Файл robots.txt недействителен Не удалось скачать файл robots.txt.
Если файл robots.txt поврежден, поисковые роботы могут не распознать ваши инструкции по сканированию или индексации сайта. Подробнее о файле robots.txt…"
Из-за этого снимается 10 пунктов в "Поисковая оптимизация"
При этом, файл существует, серч консоль его видит и сканирует.
На сколько этот показатель критичен? Хотелось бы иметь все 100 пунктов😏
упд: если важен урл, то https://blr-akademie.de/robots.txt
Вроде все норм по поисковой оптимизации
На сколько этот показатель критичен? Хотелось бы иметь все 100 пунктов
Ни на сколько. Это инструмент для разработчика, чтобы тестировать свой сайт. А не рейтинг лучших из лучших.
PageSpeed Insights пишет:
"Файл robots.txt недействителен Не удалось скачать файл robots.txt.
Если файл robots.txt поврежден, поисковые роботы могут не распознать ваши инструкции по сканированию или индексации сайта. Подробнее о файле robots.txt…"
Из-за этого снимается 10 пунктов в "Поисковая оптимизация"
Попробуйте проверить ещё раз.
У меня вот такой результат.
Вроде все норм по поисковой оптимизации
Ни на сколько. Это инструмент для разработчика, чтобы тестировать свой сайт. А не рейтинг лучших из лучших.
смешной логотип у академии. явно русский дизайнер старался))
Дизайнер работал строго по ТЗ. Третья буква - это R. Настаиваю на этом😉. Просто у меня странное чувство юмора😋
Попробуйте проверить ещё раз.
У меня вот такой результат.
у меня теперь тоже... Но я правда не придумал проблему. Несколько дней ковырялся, искал возможности решить. ничегошеньки не нашёл и вот решил сам задать вопрос.
Теперь вот в будущем тот, кто будет решение на эту проблему гуглить, окажется в этом топике и не найдёт решения. Прости нас человек из будущего, у меня само прошло... (упд: ниже оказалось, что роботс дольше 8 секунд иногда грузится и, возможно, бот проверки просто не дожидается его)
Это что за магия??? Я столько мучался и пытался разобраться, а нужно было просто топик тут создать, чтобы всё изменилось!
Думаю, нужно было просто подождать, а это совпадение :)
Дизайнер работал строго по ТЗ. Третья буква - это R. Настаиваю на этом😉. Просто у меня странное чувство юмора😋
Дизайнер - вы? :)
Прости нас человек из будущего, у меня само прошло...
И у него пройдёт :)
Ну просто для меня означает, что если инструмент от Гугл имеет проблемы с сайтом, то и боты Гугла его так видят... Спасибо за мнение.
Боты НЕ проверяют скорость вашего сайта. Данные собираются ОТ пользователей реальных.
Думаю, нужно было просто подождать, а это совпадение :)
опять появилось...😐
Дизайнер - вы? :)
Нет! Я бы такую похабщину ни за что не нарисовал! Я писал ТЗ...
Боты НЕ проверяют скорость вашего сайта. Данные собираются ОТ пользователей реальных.
Ну вопрос изначально был не о скорости, а о том, что PageSpeed Insights не видит robots.txt
и если бот PageSpeed Insights его не видит, то предположил, что и бот гугла имеет с ним проблемы...
Боты НЕ проверяют скорость вашего сайта. Данные собираются ОТ пользователей реальных.
Значит ли это, что если пользователь заходит единожды и сайт грузится дольше(ведь кэширование происходит во время первого посещения), то эту долгую загрузку и будет учитывать гугл?
*а, почитал справку Core Web Vitals. Похоже, так и будет учитывать и выдавать среднее значение пользователей Хрома.