Wnet1992

Рейтинг
150
Регистрация
14.01.2013

Плюсы SPA-сайтов:

высокая скорость работы;

быстрая разработка;

создание версий для разных платформ на основе готового кода (desktop и mobile приложения).

Люди могут юзать твой сайт даже без интернета

Sitealert:
Он тебе наврал.

хотелось бы побольше аргументов))) 🍻

мебель украина тухляк полный

понял спасибо большое!

ситуация вот такая а в вебмастере вот такая

что делать??

DiKiJ:
НУ ЛОГИЧНО, блин! 🤪
Гугл видит вашу страницу без стилей. Понятно, что без них большая часть блоков идет один под другим и "вроде как" сайт проходит по адаптивности.
Но любая таблица, картинка, форма или просто длинная строка и будет ошибка.

А потом Гугл немного подумает и еще выдаст ошибок. Или уберет их.
И такие "плавающие" ошибки могут появляться бесконечно.

А вообще - что сложного - пару Allow в robots.txt прописать?

так и было прописано и всё ок было теперь я убрал их во все. Вы советуете вернуть?

DiKiJ:
У вас там почему-то полно важных ресурсов заблокировано:
/css/bootstrap.css
/css/slick-theme.css
/css/slick.css
/css/style_calk.css

Хоть и пишет, что страница оптимизирована, но Гугл видит ее довольно странно.

до этого момента ксс были также закрыты и всё было ок.

Можно открыть, как думаете это повлияет на положительную динамику?

Потому что проблема остаётся актуальной до сегодня.

MrServis:
Ждите дней 10-12 далее будет понятно

понял. получается это он за 1.5 часа пока мы меняли диз подхватил эти странички ?

Sitealert:
Вы сами попробуйте услышать советы. Если в роботсе есть пустая строка в промежутке от строки юзерагента до директивы, то на этой строке чтение блока директив заканчивается. Пустые строки должны быть только между блоками для разных юзерагентов.
И пофиг, откуда это скопировано, Для успешного проекта вообще роботс не нужен, этот проект уже раскручен.Какие нахрен теги? Директория закрыта в роботсе, и если гуглбот по каким-то своим соображениям решил всё же прочитать этот кривой роботс, то он получил запрет на файлы CSS.

где здесь пустые строки?? https://ukr-baza.com.ua/robots.txt если этот роботс также не такой скиньте пожалуйста такой, по которому будет всё ок.

hubbiton:
Wnet1992, Вам же уже сказали, что пустые строки в этом файле - ошибка. Я Вам посоветовал генератор, который таких ошибок не делает. Но Вы же умнее гугла, а файл на сервере всё тот же, с ошибками. Продолжайте в том же духе, путь верный ))

вы меня слышите или нет? или это менталитет такой? еще раз говорю! роботс скопирован с другого успешного проекта! Вы знаете как выглядит роботс который закрывает сайт от гугла? и сравните! 🤪🤪🤪 https://ukr-baza.com.ua/robots.txt вот роботс сделан генератором ошибка сохранилась! Дело не в єтом я же говорил!

---------- Добавлено 22.01.2020 в 18:00 ----------

Sitealert:
Открой /css/.

там блок? стоит проверил тегов <noindex. там нет

Всего: 525