- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Был бы признателен за разъяснения.
Сайт на WordPress с ЧПУ. Наряду с прочими директивами в robots.txt имеются и вот эти для закрытия от индексации служебных разделов:
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Проверяю мои страницы в webmaster Гугла в разделе «Посмотреть как Googlebot». Там тображаются только тексты, то есть сайт выглядит как полу-фабрикат. А фотографии, дизайн, элементы оформления, таблицы и т.д. не видны. Указывается, что блокировка этих элементов происходит из-за директив:
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
В этой связи вопрос. Так и должно быть, что сайт выглядит для поисковиков усеченным / ущербным? И проблем при его оценке и ранжировании не будет? Или всё же он будет понижен в результатах выдачи поисковиков из-за того, что он выглядит в их глазах ущербным? Если последнее верно, то что нужно сделать, чтобы исправить ситуацию?
Откройте то что просит.
Привет bulatbulat48! Отправил в личку.
---------- Добавлено 27.04.2015 в 18:07 ----------
Откройте то что просит.
Спасибо за ответ. В принципе я об этом думал, но смущало следующее. У меня robots.txt сделан так же, как и на многих сайтах WP, в том числе и на сайтах специалистов по WP. Все они полностью закрывают эти же папки и другим советуют:
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Ну, кто-то маленький кусочек в одной из них закрывает. А мне в таком случае много папок и файлов закрывать придется. Поневоле сомнения возникают.
---------- Добавлено 27.04.2015 в 18:10 ----------
Правильно так: кто-то маленький кусочек в одной из них ОТКРЫВАЕТ.
---------- Добавлено 27.04.2015 в 18:11 ----------
А мне в таком случае много папок и файлов ОТКРЫВАТЬ придется.
Ну неужели никто не знает?
мне в таком случае много папок и файлов закрывать придется.
Закрыть все, кроме контента.
Закрыть все, кроме контента.
Спасибо за ответ.
Используйте Allow для того, что нужно гуглу
Привет bulatbulat48! Отправил в личку.
---------- Добавлено 27.04.2015 в 18:07 ----------
Спасибо за ответ. В принципе я об этом думал, но смущало следующее. У меня robots.txt сделан так же, как и на многих сайтах WP, в том числе и на сайтах специалистов по WP. Все они полностью закрывают эти же папки и другим советуют:
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Ну, кто-то маленький кусочек в одной из них закрывает. А мне в таком случае много папок и файлов закрывать придется. Поневоле сомнения возникают.
---------- Добавлено 27.04.2015 в 18:10 ----------
Правильно так: кто-то маленький кусочек в одной из них ОТКРЫВАЕТ.
---------- Добавлено 27.04.2015 в 18:11 ----------
А мне в таком случае много папок и файлов ОТКРЫВАТЬ придется.
Делаете 2 директивы user-agent, одну для яндекса с закрытием системных папок, вторую для google и открываете все что просит.
Всем спасибо за ответы. Мнения в чём-то разделились.
Если не ошибаюсь, то вроде все поисковики оценивают сайты только по HTML-коду. По-крайнем мере я так прочитал где-то (сам не являюсь специалистом). Ну и это в свою очередь, наверное, влияет на ранжирование.
В сервисе "Посмотреть как Googlebot" есть картинка слева, как видит он сам, и справа, как видят страницу посетители. Что это значит? Слева ( глазами Googlebot) - просто так для сведения, но тем не менее так и ДОЛЖНО быть? Или он тем самым Гугл показывает ущербность страницы и хочет, чтобы было так, как справа? То есть как её видят посетители.
Конечно, можно прописать отдельно для Гугла какие-то директивы, разрешить ему видеть то, что он хочет, и забыть. А неужели Яндекс оценивает сайты по-другому и не хочет видеть их "во всей красе"? Так где же истина?
Всем спасибо за ответы. Мнения в чём-то разделились.
Если не ошибаюсь, то вроде все поисковики оценивают сайты только по HTML-коду. По-крайнем мере я так прочитал где-то (сам не являюсь специалистом). Ну и это в свою очередь, наверное, влияет на ранжирование.
В сервисе "Посмотреть как Googlebot" есть картинка слева, как видит он сам, и справа, как видят страницу посетители. Что это значит? Слева ( глазами Googlebot) - просто так для сведения, но тем не менее так и ДОЛЖНО быть? Или он тем самым Гугл показывает ущербность страницы и хочет, чтобы было так, как справа? То есть как её видят посетители.
Конечно, можно прописать отдельно для Гугла какие-то директивы, разрешить ему видеть то, что он хочет, и забыть. А неужели Яндекс оценивает сайты по-другому и не хочет видеть их "во всей красе"? Так где же истина?
где-то рядом :)
Только вчера задавался этим вопросом. Все один в один. Начитался разной литературы, форумов поддержки и в итоге открыл все, что просит Гугл. Теперь хочу подождать немного и посмотреть, что в итоге получится. Но сейчас Googlebot хоть стал нормально сайт показывать, а то был один текст и весь кривой. Кстати, интересно услышать мнения тех, кто уже это сделал? Поменялось что-либо у вас?