- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
![Зачем быть уникальным в мире, где все можно скопировать](https://d.searchengines.guru/20/96/frame_27_600x314__b353b658.jpg)
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
И так, при поиске Гугл выдает такую прекрасную надпись:
Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Соответственно не показывается ни заголовок страницы, ни описание из мета-ровным счетом ни-че-го.
Сайт в итоге сидит в "соплях". НО в robots.txt я не вижу ничего криминального, и страницы у меня называются по типу имясайта.ru/skolko-veshat-grammov . В чем проблема? Привожу ниже текст файла robots.txt
User-agent: *
Disallow: /cgi-bin
Disallow: /2013
Disallow: /2014
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /page
Disallow: /page/2
Disallow: /tag
Disallow: /tag/
Disallow: /category
Disallow: /category/
Disallow: /?s=
Disallow: /wp-admin
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /trackback
Disallow: /wp-feed
Disallow: /wp-comments
Что делать?
Сайт в студию
А в файле robots.txt сейчас все ОК?
Позакрывали всю пагинацию и категории, в итоге гугл не переходит по страницам. Куда робот должен идти с главной если меню закрыто? Перелинковки нет, страницы с контентом существуют сами по себе.
Позакрывали всю пагинацию и категории, в итоге гугл не переходит по страницам. Куда робот должен идти с главной если меню закрыто? Перелинковки нет, страницы с контентом существуют сами по себе.
Какие строчки посоветуете убрать? Линки на все страницы доступны с главной, соответственно на страницы с контентом роботом попадает через главную, нет?
Это то что можно наобум сказать не видя сайта. Тяжело лечить больного по скайпу или телефону.
по-моему не первая тема уже про то что никаких проблем с robots.txt нет, но почему-то вылезают такие предупреждения. Хотя вроде никто так и не показал сайт.
Позакрывали всю пагинацию и категории, в итоге гугл не переходит по страницам. Куда робот должен идти с главной если меню закрыто? Перелинковки нет, страницы с контентом существуют сами по себе.
Вы имеете в виду это?
Disallow: /page
Disallow: /page/2
На нормальном сайте должно быть дополнительное меню, не только пагинация.
В противном случае, далёкие страницы все равно будут индексированы за счет ссылок из тех постов, которые уместились на первой странице. Хоть и на большей глубине.