- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени! Я по вопросу "длительности действия" запрета доступа ко всему сайту в файле robots.txt...
Сделал заказчику предварительно сайт, но его содержимое контента не уникально: составляет 0.00% так как предоставил ему (заказчику) как дэмо-версию ,используя тексты и структуру сайта как у конкурентов. Рискнул закрыть от индексации командой в роботс.тхт:
Проверил в поисковиках - пишет только гугл"Описание веб-страницы недоступно из-за ограничений в файле robots.txt." а Яндекс пока вообще не видит..... или увидел всё-таки и с концами загубил домен?:(
Почему такие прятки с поисковиками? Да вот заказчик никак предоплату не решается внести, чтобы уникальный контент я разместил далее (копирайт и рерайт текстов сделать)... Решил вышеуказанной конструкцией временно закрыться ,пока клиенты думают... чего - сам не пойму=))
А как долго можно сайт держать запретом в роботс.тхт?
Что ждёт домен, который по-долгу спрятан от ботов?
Есть ли гарантии, что поисковики не проиндексировали содержимое?
А как долго можно сайт держать запретом в роботс.тхт?
Вы можете его вообще не открывать:) а если серьезно, сколько нужно, столько и держите.
Что ждёт домен, который по-долгу спрятан от ботов?
Он просто не индексируется и все.
Есть ли гарантии, что поисковики не проиндексировали содержимое?
Ну это вопрос вопросов😂 если закрыто в роботе, он НЕ проиндексируется.
Благодарю за ответ! Вроде успокоили... Но есть "но".
Я вот пока читал всякое и наткнулся на это:
http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=156449
... всё же есть шансы "спалиться" - "....Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс...."
And-rey, для гугла в тексте страниц поставьте тег noindex nofollow
я всегда запрещаю в роботсе пока идет разработка и доработка сайта, бывало и пару месяцев (и пол года даже было), потом когда сайт готов открываю, пока никаких проблем с этим замечено не было, все индексировалось после открытия нормально
....Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс...."
Не стоит по этому поводу переживать.