- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите пожалуйста, как закрыть от индексации все файлы с расширением html (собственно сами новости и статические страницы)?
Подскажите пожалуйста, как закрыть от индексации все файлы с расширением html (собственно сами новости и статические страницы)?
Есть два варианта, закрыть в robots.txt и в htaccess. Вам зачем это нужно?
Disallow: /*html
В robots.txt
Есть два варианта, закрыть в robots.txt и в htaccess. Вам зачем это нужно?
На базе DLE сделан сайт знакомств, а так как все анкеты приблизительно похожи и ценности для ПС не несут, решил продвигать только категории, т.е. "знакомства в москве", "знакомства в хабаровске" и т.п. Как в robots.txt закрыть уже расказали выше, но читал у многих сеошников, что порой поисковики игнорируют его и индексируют, потому вариант с .htaccess более надежный. Не подскажете как закрыть индексацию через .htaccess ?
порой поисковики игнорируют его и индексируют, потому вариант с .htaccess более надежный
ПС его не игнорируют. У robots.txt рекомендательный характер, и для ваших задач грамотной настройки robots.txt достаточно. Если все таки решили запретить жестко индексацию - пройдите по ссылке запрет индексации. Если лень читать и разбираться - напишите задачу - мы напишем решение.
ПС его не игнорируют. У robots.txt рекомендательный характер, и для ваших задач грамотной настройки robots.txt достаточно. Если все таки решили запретить жестко индексацию - пройдите по ссылке запрет индексации. Если лень читать и разбираться - напишите задачу - мы напишем решение.
Статья хорошая, но решения своего вопроса не нашел там. А задача та же - запретить через .htaccess индексацию всех файлов с расширением html. Что туда прописывать?
Статья хорошая, но решения своего вопроса не нашел там. А задача та же - запретить через .htaccess индексацию всех файлов с расширением html. Что туда прописывать?
RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR]
RewriteCond %{HTTP_USER_AGENT} ^Yandex.*
RewriteRule ^.*\.html$ – [F]
RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR]
RewriteCond %{HTTP_USER_AGENT} ^Yandex.*
RewriteRule ^.*\.html$ – [F]
Поставил эти строчки, прогнал через анализ сайта в Rookee - вылезла "техническая ошибка: одно из зеркал не работает". Еще есть варианты?
А задача та же - запретить через .htaccess индексацию всех файлов с расширением html. Что туда прописывать?
Удаление аппендицита через задницу? Орригинально.
Еще есть варианты?
можно запретить доступ бота пс к файлам с расширением .html :
создайте правило для бота нужной пс - типа:
затем пропишите запрет на доступ, например:
как-то так..
Поставил эти строчки, прогнал через анализ сайта в Rookee - вылезла "техническая ошибка: одно из зеркал не работает". Еще есть варианты?
Вряд ли эта ошибка связана с запретам доступа роботам к файлам *.html. Не работает одно из зеркал. Проверьте зеркала сайта.