- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Собственно задача, обратна обсуждаемым (ну или не нашел оптимального решения).
Планируется перелопатить практически весь сайт, не затрагивая его работу (смена дизайна, структуры и т.д.). Для этого хочу повесить сайт на другом домене, который хочу закрыть от поисковиков. Как только работы будут завершены (а это не скоро), перенесу результат на его домен.
Как я понимаю, robots.txt не панацея, т.к. может игнорироваться некоторыми поисковиками.
Что еще посоветуете?
Не настраивайте DNS для данного хоста. Ограничтесь записью в hosts на компьютерах тех, кому это надо :) И никто Ваш сайт не увидит :)
в роботе и закрывать нужно.
Как я понимаю, robots.txt не панацея, т.к. может игнорироваться некоторыми поисковиками
Вешайте сначала robots.txt, а потом сайт, а не наоборот. И все будет хорошо.
Всем спасибо, понравилась мысль не настраивать DNS. Береженого Бог бережет, повешу и роботс и DNS убью 😂
Еще добавьте метатег <meta name="robots" content="noindex">
Береженого Бог бережет,
... сказала монашка, натягивая второй презерватив на свечку. :)
... и еще настройте, чтобы все страницы выдавали HTTP-заголовок 404.
(иронично) Так тогда уже и средствами .htaccess/.htpasswd сайт спрячьте, и firewall настройте, чтоб только с определенных IP пускало...
Повеселили. А про .htaccess/.htpasswd тож думал, ток никогда туда не лазил, поэтому вариант с DNS показался самым оптимальным. Ну а про роботс, по-мойму давно как-то юзал его для таких же целей, ток все-равно выскакивали результаты порой (в каках-то малых поискових
Повеселили. А про .htaccess/.htpasswd тож думал, ток никогда туда не лазил,
в .htaccess:
Order Deny,Allow
Deny from all
Allow from (ваш ип, которому разрешен доступ к сайту)
Спасибо, терь вооружен по самое не хочу. Пока ограничился роботс, но если че-нить просачицца наружу, буду принимать кардинальные меры, благо есть 2 способа в резерве.