- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте уважаемые форумчане. Имеется у меня сайт, движок самописный. В свет вышел буквально месяца 3-4 назад. Оптимизирую его по тихоньку, чтобы не попасть под фильтры. В скором времени планирую сделать множество изменений на сайте, и хотел бы закрыть его полностью от индексации на время работ. У меня есть вопросы, на которые хотелось бы получить ответы:
1) Весь сайт закрыть от индексации можно только с помощью файла robots.txt? Или есть ещё какие нибудь способы?
2) Пагубно ли это может отразиться на дальнейшем продвижении сайта, если закрыть весь сайт от индексации?
Спасибо!
В скором времени планирую сделать множество изменений на сайте, и хотел бы закрыть его полностью от индексации на время работ
Все изменения отлаживаются на техническом домене(или локально на Денвере), и потом разом выкатываются на рабочий сайт.
Какой смысл был открывать на индексацию, и потом закрывать?
По robots.txt Google продолжает индексировать страницы, на которые есть внешние ссылки. В выдачу может попасть мусор.
Все изменения отлаживаются на техническом домене(или локально на Денвере), и потом разом выкатываются на рабочий сайт.
Какой смысл был открывать на индексацию, и потом закрывать?
По robots.txt Google продолжает индексировать страницы, на которые есть внешние ссылки. В выдачу может попасть мусор.
Сейчас я понимаю что нужно было сначала всё довести до ума, а после вылаживать проект в сеть. Но как говорится всё приходит с опытом. На ошибках учимся все мы без исключения.
Хорошо. А если помимо того, что в robots.txt прописать запрет на индексацию всего сайта, и внешним ссылкам поставить nofollow. В этом случае Google не будет индексировать, так же?
Хорошо. А если помимо того, что в robots.txt прописать запрет на индексацию всего сайта, и внешним ссылкам поставить nofollow. В этом случае Google не будет индексировать, так же?
Внешние ссылки, это те, которые стоят на других сайтах и ссылаются на ваш сайт. Поставить им nofollow не получится - сайты-то чужие, и доступа к ним нет.
Можно сделать проще - пропишите в .htaccess:
Deny from all
Allow from xx.xx.xx.xx
где xx.xx.xx.xx - ваш IP-адрес
Тогда сервер будет пускать на сайт только с вашего IP, всем остальным давать "404 Forbidden".
PS: Это будет работать, если ваш хостер разрешает управление файлом .htaccess
И вы должны иметь статический IP-адрес xx.xx.xx.xx, хотя можно открывать и по маске:
откроет откроет доступ с диапазона IP 212.133.11.*
Внешние ссылки, это те, которые стоят на других сайтах и ссылаются на ваш сайт. Поставить им nofollow не получится - сайты-то чужие, и доступа к ним нет.
Можно сделать проще - пропишите в .htaccess:
где xx.xx.xx.xx - ваш IP-адрес
Тогда сервер будет пускать на сайт только с вашего IP, всем остальным давать "404 Forbidden".
PS: Это будет работать, если ваш хостер разрешает управление файлом .htaccess
И вы должны иметь статический IP-адрес xx.xx.xx.xx, хотя можно открывать и по маске:
откроет откроет доступ с диапазона IP 212.133.11.*
Спасибо, нужно будет попробовать. Мне всё же интересно. Недавно читал, не помню где, что в гугл вебмастер есть такая функция, что можно на совём ресурсе давать понять поисковому роботу, какие ссылки учитывать а какие нет. Если это действительно работает, то получается что на своём сайте я могу запретить роботам переходить по внешним ссылкам на мой сайт, тем самым не индексируя его?
Внешние ссылки, это те, которые стоят на других сайтах и ссылаются на ваш сайт. Поставить им nofollow не получится - сайты-то чужие, и доступа к ним нет.
Можно сделать проще - пропишите в .htaccess:
где xx.xx.xx.xx - ваш IP-адрес
Тогда сервер будет пускать на сайт только с вашего IP, всем остальным давать "404 Forbidden".
PS: Это будет работать, если ваш хостер разрешает управление файлом .htaccess
И вы должны иметь статический IP-адрес xx.xx.xx.xx, хотя можно открывать и по маске:
откроет откроет доступ с диапазона IP 212.133.11.*
А после того как весь сайт будет выдавать 404, проблем в будущем не будет? Ведь такая ошибка плохо сказывается на сайте, или мот я не прав, самому интересно. А если продолжать работать а потом просто сделать удаление страниц с кешем из гугла?😕
Ильяя, Гугловскому боту довольно сложно что-то запретить. Он слишком настойчивый.
Если сайт уже попал в индекс, то самым верным решением будет решение
Ladycharm, т.е. закрыть в htaccess.
Если сайт не попал в индекс гугла, то закрываете в роботсе + прописываете
<META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW">. Часто хорошо срабатывает, если было прописано сразу (до попадания в индекс).
Здравствуйте уважаемые форумчане. Имеется у меня сайт, движок самописный. В свет вышел буквально месяца 3-4 назад. Оптимизирую его по тихоньку, чтобы не попасть под фильтры. В скором времени планирую сделать множество изменений на сайте, и хотел бы закрыть его полностью от индексации на время работ. У меня есть вопросы, на которые хотелось бы получить ответы:
1) Весь сайт закрыть от индексации можно только с помощью файла robots.txt? Или есть ещё какие нибудь способы?
2) Пагубно ли это может отразиться на дальнейшем продвижении сайта, если закрыть весь сайт от индексации?
Спасибо!
Читается как:
"Спарсил сайт автоматом, выложил на хостинге (на локалке потому что редактировать не получается, а сделать дома апач я не умею), сейчас занимаюсь не спеша вопросами уникализации контента. Как мне не попасть и чтобы все получилось?"
1. Роботс закрывает от индексации надежно (если нет внешних ссылок на документы).
2. От просто открытия в роботс до индекса уникальной морды без писем и ускорений (смотря в какой пс) от недели до месяца. В разделе дорвеев есть дельные советы и практики.
Читается как:
"Спарсил сайт автоматом, выложил на хостинге (на локалке потому что редактировать не получается, а сделать дома апач я не умею), сейчас занимаюсь не спеша вопросами уникализации контента. Как мне не попасть и чтобы все получилось?"
1. Роботс закрывает от индексации надежно (если нет внешних ссылок на документы).
2. От просто открытия в роботс до индекса уникальной морды без писем и ускорений (смотря в какой пс) от недели до месяца. В разделе дорвеев есть дельные советы и практики.
Нет, это читается так, как я написал. Сайт писался с голого листа.
Ну и забейте. Пусть висит то, что проиндексировалось. Когда доделаете, поменяете. Если изменятся URL, не забудьте редиректы.
А с Яндексом получается всё проще? Если в роботс запрещаем индескацию, то даже не смотря на внешние ссылки с других ресурсов, бот не будет индексировать сайт?