- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Вы не поняли вопроса? Или не знаете как лучше сделать в моей ситуации?
не понял сути
И допустим у меня сейчас 150 постов, по 5 на страницу всего получается 30 страниц, соответственно, когда я удалю 5 постов, количество моих страниц уменьшится на одну и станец 29, а поисковик будет некоторое количество времени определять http://blog.***.ru/page/30/ -как 404 ошибку, пока у меня снова не заполниться.
Какое грамотное решение следует принять в данной ситуации.
Удалите сначала 5 страниц из за этого уйдет автоматом 1 страница из раздела категорий.
То есть из индекса вылетит 6 страниц.
Какое может быть решение?
Удалить не 5, а 4 страницы, или добавить 1 статью а потом удалить ненужных 5 если так важна эта page/30/
Нужно разрешить к индексации только посты на сайте, ссылки имеют вид
http://www.site.org/1143241667-post1.html
http://www.site.org/1145645689-post2.html
http://www.site.org/1147756753-post3.html
то есть одинаковое во всех постах только
http://www.site.org/114
что следует прописать в robots ?
Нужно разрешить к индексации только посты на сайте, ссылки имеют вид
http://www.site.org/1143241667-post1.html
http://www.site.org/1145645689-post2.html
http://www.site.org/1147756753-post3.html
то есть одинаковое во всех постах только
http://www.site.org/114
что следует прописать в robots ?
User-agent: *
Disallow: /
Allow: /114
Вопрос по файлу robots.txt для wordpress:
В большинстве так называемых "оптимальных" файлов, присутствуют такие строчки:
Disallow: /wp-content/themes
Disallow: /wp-content/plugins
Но вот в вебмастере гугла в разделе "Заблокированные ресурсы", обнаружил что у меня много ошибок, из за этих 2ух строчек.
Так, при просмотре с помощью гуглбот, пишет, - "Роботу не удалось получить следующие ресурсы веб-страницы"
И далее, в строчку перечисляет что из-за Disallow: /wp-content/themes заблокирована таблица стилей, а из-за Disallow: /wp-content/plugins тоже, что-то там не видит..
Подскажите пожалуйста, насколько это критично?
Вопрос по файлу robots.txt для wordpress:
В большинстве так называемых "оптимальных" файлов, присутствуют такие строчки:
Disallow: /wp-content/themes
Disallow: /wp-content/plugins
Но вот в вебмастере гугла в разделе "Заблокированные ресурсы", обнаружил что у меня много ошибок, из за этих 2ух строчек.
Так, при просмотре с помощью гуглбот, пишет, - "Роботу не удалось получить следующие ресурсы веб-страницы"
И далее, в строчку перечисляет что из-за Disallow: /wp-content/themes заблокирована таблица стилей, а из-за Disallow: /wp-content/plugins тоже, что-то там не видит..
Подскажите пожалуйста, насколько это критично?
Я открываю файлы(css, изображения), которые просит google.
Я открываю файлы(css, изображения), которые просит google.
А чуть конкретнее можно?
То есть, какие могут быть реальные минусы, (кроме сообщения об ошибках) если доступ к css не открывать для пс?
Ведь по какой-то причине, многие закрывают эту папку "themes"..😕
Удалите сначала 5 страниц из за этого уйдет автоматом 1 страница из раздела категорий.
То есть из индекса вылетит 6 страниц.
Какое может быть решение?
Удалить не 5, а 4 страницы, или добавить 1 статью а потом удалить ненужных 5 если так важна эта page/30/
Мне важно, чтобы эта страница не была с ошибкой 404, пока она не заполниться.
Так как насколько я знаю, это вредно для seo.
Подскажи, пожалуйста!
У нас файл роботс находится не в текстовом файле, а на отдельный страничке, т.к. у нас нет ftp. Как к этому отнесутся поисковые роботы?
А чуть конкретнее можно?
То есть, какие могут быть реальные минусы, (кроме сообщения об ошибках) если доступ к css не открывать для пс?
Ведь по какой-то причине, многие закрывают эту папку "themes"..😕
Гугл говорит это — клоакинг.
---------- Добавлено 01.04.2015 в 16:36 ----------
Подскажи, пожалуйста!
У нас файл роботс находится не в текстовом файле, а на отдельный страничке, т.к. у нас нет ftp. Как к этому отнесутся поисковые роботы?
Добавьте сайт в вебмастер и посмотрите через вкладку проверки файла robots.txt, в старттопике указал ссылки.