Wnet1992

Рейтинг
152
Регистрация
14.01.2013
DiKiJ:
НУ ЛОГИЧНО, блин! 🤪
Гугл видит вашу страницу без стилей. Понятно, что без них большая часть блоков идет один под другим и "вроде как" сайт проходит по адаптивности.
Но любая таблица, картинка, форма или просто длинная строка и будет ошибка.

А потом Гугл немного подумает и еще выдаст ошибок. Или уберет их.
И такие "плавающие" ошибки могут появляться бесконечно.

А вообще - что сложного - пару Allow в robots.txt прописать?

так и было прописано и всё ок было теперь я убрал их во все. Вы советуете вернуть?

DiKiJ:
У вас там почему-то полно важных ресурсов заблокировано:
/css/bootstrap.css
/css/slick-theme.css
/css/slick.css
/css/style_calk.css

Хоть и пишет, что страница оптимизирована, но Гугл видит ее довольно странно.

до этого момента ксс были также закрыты и всё было ок.

Можно открыть, как думаете это повлияет на положительную динамику?

Потому что проблема остаётся актуальной до сегодня.

MrServis:
Ждите дней 10-12 далее будет понятно

понял. получается это он за 1.5 часа пока мы меняли диз подхватил эти странички ?

Sitealert:
Вы сами попробуйте услышать советы. Если в роботсе есть пустая строка в промежутке от строки юзерагента до директивы, то на этой строке чтение блока директив заканчивается. Пустые строки должны быть только между блоками для разных юзерагентов.
И пофиг, откуда это скопировано, Для успешного проекта вообще роботс не нужен, этот проект уже раскручен.Какие нахрен теги? Директория закрыта в роботсе, и если гуглбот по каким-то своим соображениям решил всё же прочитать этот кривой роботс, то он получил запрет на файлы CSS.

где здесь пустые строки?? https://ukr-baza.com.ua/robots.txt если этот роботс также не такой скиньте пожалуйста такой, по которому будет всё ок.

hubbiton:
Wnet1992, Вам же уже сказали, что пустые строки в этом файле - ошибка. Я Вам посоветовал генератор, который таких ошибок не делает. Но Вы же умнее гугла, а файл на сервере всё тот же, с ошибками. Продолжайте в том же духе, путь верный ))

вы меня слышите или нет? или это менталитет такой? еще раз говорю! роботс скопирован с другого успешного проекта! Вы знаете как выглядит роботс который закрывает сайт от гугла? и сравните! 🤪🤪🤪 https://ukr-baza.com.ua/robots.txt вот роботс сделан генератором ошибка сохранилась! Дело не в єтом я же говорил!

---------- Добавлено 22.01.2020 в 18:00 ----------

Sitealert:
Открой /css/.

там блок? стоит проверил тегов <noindex. там нет

при чём здесь генератор? ГУГЛ говорит, что я закрыл сайт от роботов. Что Генератор? написать лишь бы написать?

домен нулячий, вчера SSL прикрутил.

вот яндекс всё ок начал бегать робот по сайту.

гугл говорит что я сайт закрыл но он же не закрыт. этот роботс скопирован с моего другого сайта где все хорошо.

Гугл себя введёт как будто у меня там стоит

User-agent: *

Disallow: /

да нормальный роботс что с ним не так? я пробывал его вообще удалять ситуация остаётся такой же

netstorm:
А это точно работает с google? Я тут давно наблюдаю одну сеть - больше 50 интернет магазинов одинаковых с один дизайном и на одном IP висят, при этом они еще и в поиске гугла вспылавают:
https://igalaxy.ua/g/shops

ну у них разные названия сайтов и дизайны разные плюс соц сети разные

Всего: 530