- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Заходит на продвижение сайт, делаю аудит. Наблюдаю картину маслом:
Общий объём сайта - 2 тысячи страниц, открытых для индексации.
Файлов CSS - 4,5 тысячи.
Всё файло CSS имеет вид /css_mobile/88tmp.css?v=1639305459
Разницы в них нету, все сгенерированы в один день.
Это вообще как и зачем такое сделано? И что будет, если я их от роботов закрою? Логи я пока не видал, но что-то подсказывает, что недоброе там железяки творят.
Всё файло CSS имеет вид /css_mobile/88tmp.css?v=1639305459
Это вообще как и зачем такое сделано?
Предполагаю, что это временный (судя по tmp) css файл, новый url которого генерится при каждом заходе. Возможно механизм был реализован для отладки, но потом про вывод уникальных адресов программист просто забыл или решил, что и так сойдет.
Файлов CSS - 4,5 тысячи.
Это вообще как и зачем такое сделано?
Явно идиоты делали.
И что будет, если я их от роботов закрою?
Поисковики же не рекомендуют, потому что они не смогут адекватно оценивать сайт.
На конструктерах такое встречал. Подскажите какой движок у сайта?
Netcat, и похоже, конструктор там таки задействован.
Явно идиоты делали.
Поисковики же не рекомендуют, потому что они не смогут адекватно оценивать сайт.
Вот это и смущает. Там вообще нет директив Allow для файлов шаблона, и непонятно, что рендерит гуглобот для смартфонов. И если всю кучу этого шлака отдать на сканирование - думаю, гуглобот именно там и поселится.
новый url которого генерится при каждом заходе.
Тоже так подумал, но они все - от 22 ноября, и это уже совсем непонятно.
По поводу закрытия в роботс - не знаю, я бы сделал это чуть позже, когда уберутся ссылки со страниц на эти стили - в движке или настройках, надо искать.
Тоже так думаю. Напортачить не хотелось бы.
А были негативный результаты при закрытии CSS?
Не замечал разницы, что они открыты, что закрыты в роботсе.
А были негативный результаты при закрытии CSS?
Не замечал разницы, что они открыты, что закрыты в роботсе.
Если гуглоботу не разрешить доступ через Allow - будет канючить, что сайт не адаптирован для мобайл, и в Сёрч Консоли при отправке урлов будет трешатина вместо шаблона.
По факту, думаю, он всё равно сканирует эти штуки, но разрешение доступа по моему опыту всегда сказывается в плюс.
Меня больше пугает дикое количество этого шлака. Видал я фигню, когда гуглобот только на такую помойку и заходит - и оттуда уже никуда не идёт, не хватает лимитов обхода. Яндексботу пофиг чаще всего, он в этом плане чуть умнее.
но разрешение доступа по моему опыту всегда сказывается в плюс.
По позициям\трафику?
И так, и так. Я с коммерческими сайтами работаю, так что позициям в KPI всегда приоритет.