- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
То есть, все тут собравшиеся не видят ничего страшного в том чтобы просто взять и отменить правила в robots.txt закрывающие папки css и js ??? Но может быть все-таки есть способ проверить их на косячность перед открытием - например лишние файлы, или не используемые строки и так далее.. или может быть что-то можно объединить в один файл вместо трех.
То есть, все тут собравшиеся не видят ничего страшного в том чтобы просто взять и отменить правила в robots.txt закрывающие папки css и js ???
1. Robots.txt всегда был лишь рекомендацией для ПС
2. Еще 7 лет назад вебмастера вообще не заморачивались написанием роботс. К написанию правил в robots.txt принудили сами ПС, чтобы закрыть дубли страниц, за которые накладываются санкции. Больше файл роботс.тхт ни для чего и не нужен.
Если теперь сами ПС, ломая свои же запреты, полезут в robots и увидят дубли страниц - это их проблемы.
Короче, robots.txt - это джентльменское соглашение о "дверях без замка", но с табличками "посторонним вход запрещён". Типа, вебмастер предупреждает ботов ПС - "ты, эта, туда - не ходи, там такое! Ты лучше сюда ходи."
Только не все умеют читать таблички, да и по сути, такая "дверь" ни от чего не защищает.
Во время проверки сайта (на mobile frendly в новом интсрументе гугла) заметил вот такое (This page uses 5 resources which are blocked by robots.txt. The results and screenshot may be incorrect. ) К томуже скриншот очень удевил на моей мобиле всехорошо отображается а тут как то нехорошо . Cайт построен на wordpress из этих 5 файлов 2 файла js которые находяться в папке wp-include (по стандарту даже предложено закрывать от индексации данную директорию сайта) .
Вопрос: если поставить в robots.txt alow след образом Allow: /wp-includes/js/jquery/jquery.js повлияет ли на качество картинки ?
к томуже выводится что не найдены некоторые файлы картинок и фонтов, хотя я проверил руками они на сайте есть. Жду ваших коментариев друзья селшники и кодеры . Далее покапался в интренете и нашел еше один интсрумент который отвечает за проверку ЗАПРЕШЕННЫХ файлов js и css, google fеtch проверил каждую страницу в отдельности и в отчете заметил теже файлы которые скрыты в роботе тхт они также находятся в wp-include директории . На сайте в шапке установлен google map в FETCH -e карта также не отображается. Вот такие вот проблемы помогите советом.
не могу найти ссылку на рекомендации гугл для открытия индексации js и css файлов
Получается скрыть ссылку уже в принципе нельзя? если гугл смотрит как браузер, как сделать ссылку "Главная" которая при нажатии перемещает на главную, но ссылкой не является. Если я хочу чтобы с нч страницы на главную не было ссылки как таковой...
seregagrankin, http://www.unmedia.ru/sokrytie-ssylok.html
вариант с class
спасибо за ответ, но я решил проверить сайт через гугловский сервис
https://developers.google.com/speed/pagespeed/insights/?url=http%3A%2F%2Fwww.unmedia.ru%2Fsokrytie-ssylok.html&tab=desktop
я вижу что меню закрыто, но почему тогда видит его? или это просто скриншот браузера, а у паука отборажение все-таки другое...
Я не могу посмотреть сайт анмедии через гугл бот, /ru/news/18363, действительно ссылок меню в нем не видно с учетом новых правил?
seregagrankin, примерно так
да действительно, увидел сам у себя, мы же в роботс обрубаем стили и все скрипты, спасибо разобрался!