- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
такие метатеги нужно использовать ооочень аккуратно, это закрытие всей файлов *1*
Вот поэтому и спрашиваю совета, как поступить...
А закрытие
Disallow: /page/
Disallow: /lastnews/
Можно спокойно делать?
Вот поэтому и спрашиваю совета, как поступить...
А закрытие
Disallow: /page/
Disallow: /lastnews/
Можно спокойно делать?
как я понимаю, 3 вопроса:
1) закрыть страницы материалов за 1668, 1785, 1914, 1325 и т.д. года!!!
Выглядит так: сайт.ру/1668/11/ (ну и по аналогии).
Disallow: /1668/
Disallow: /1785/
и тд
2) закрыть сайт.ру/lastnews/page/8/ и сайт.ру/page/...
Disallow: /page/
Disallow: /lastnews/
3) и оставить открытыми:
сайт.ру/12-название-статьи..
Рекомендация:
Allow: /12-название-статьи..
С Google аналогично, для него robots.txt рекомендационный файл. Все зависит от ваших условий.
Понятно. Спасибо.
Позвольте я подытожу: Я планировал в robots.txt закрывать все, и потихоньку открывать все то, что считаю необходимым к индексированию. При этом я все равно оставляю мета-тег (изначально - т.е. при заливке на хостинг) для всех тех страниц, которые не хочу индексировать. И как я понял, все равно нет никакой гарантии, что эти страницы не попадут в индекс. И вот я исправно наблюдаю, и если страницы со временем в индекс не попадают - то я ничего не меняю. Если, вдруг, по какой-то неизвестной причине они попали туда, то тогда я разрешаю их (попавшие в индекс страницы) в robots.txt и жду, когда они удалятся из индекса благодаря мета-тегу.
Такой подход-алгоритм нормальный, действенный?
Спасибо, за то, что тратите свое время на зеленых! )))
Просто таким образом файл роботса будет "длинною в жизнь" )))
Нашел решение проблемы путем редактирования файла движка сайта. Еще раз спасибо!
Понятно. Спасибо.
Позвольте я подытожу: Я планировал в robots.txt закрывать все, и потихоньку открывать все то, что считаю необходимым к индексированию. При этом я все равно оставляю мета-тег (изначально - т.е. при заливке на хостинг) для всех тех страниц, которые не хочу индексировать. И как я понял, все равно нет никакой гарантии, что эти страницы не попадут в индекс. И вот я исправно наблюдаю, и если страницы со временем в индекс не попадают - то я ничего не меняю. Если, вдруг, по какой-то неизвестной причине они попали туда, то тогда я разрешаю их (попавшие в индекс страницы) в robots.txt и жду, когда они удалятся из индекса благодаря мета-тегу.
Такой подход-алгоритм нормальный, действенный?
Все закроется нормально благодаря метатегу или robots.txt. А то что не закроется можно удалить через быстрое удаление из выдачи в яндексе, после закрытия метатегом или robots.txt
---------- Добавлено 08.04.2015 в 14:36 ----------
Спасибо, за то, что тратите свое время на зеленых! )))
Просто таким образом файл роботса будет "длинною в жизнь" )))
Нашел решение проблемы путем редактирования файла движка сайта. Еще раз спасибо!
Самое верное решение ☝
Подскажите так можно.
Disallow: /категория/5-
Я правильно понимаю категория будет индексироваться а категория с дублем после слеша нет?
есть просто категория а так выглядит дубль вместе с категорией.
Спасибо
Подскажите так можно.
Disallow: /категория/5-
Я правильно понимаю категория будет индексироваться а категория с дублем после слеша нет?
есть просто категория а так выглядит дубль вместе с категорией.
Спасибо
если правильно понял:
Disallow: /категория/5-
это означает Disallow: /категория/5-*
* - все что идет дальше так же не будет индексироваться
/категория/ #будет индексироваться
/категория/5- #не будет индексироваться
/категория/5-* #не будет индексироваться
bulatbulat48
Подскажите пожалуйста такой момент.
Нужно в скрытой папке открыть доступ только к одной внутренней.
Правильно ли все сделано?
Disallow: /service/
Disallow:...
......
......
......
Allow: /service/jscript/
bulatbulat48
Подскажите пожалуйста такой момент.
Нужно в скрытой папке открыть доступ только к одной внутренней.
Правильно ли все сделано?
Disallow: /service/
Disallow:...
......
......
......
Allow: /service/jscript/
верно, но в вашем примере будет открыты еще и все уровни /service/jscript/любая_папка/
если нужно чтобы только /jscript/ а дальше закрывалось, тогда:
Allow: /service/jscript/$
bulatbulat48, а как быстро изменения могут вступить в силу?
А то у меня из за этой папки оказалось 123 страницы заблокировано это по сводке GWTools.