- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Пример есть? По Disallow: /
Отдельные страницы закрытые в robots Google отправлет в сопли:
И в справке они пишут, что это не сильно надёжно: https://support.google.com/webmasters/answer/6062608?hl=en
***
Если нужно надёжно закрыть, то можно сделать доступ по паролю или с определённых IP.
http://lifeexample.ru/razrabotka-i-optimizacia-saita/htaccess-zapretit-dostup.html
У кого взять информацию по IP?
---------- Добавлено 04.01.2016 в 19:45 ----------
Отдельные страницы закрытые в robots Google отправлет в сопли:
И в справке они пишут, что это не сильно надёжно: https://support.google.com/webmasters/answer/6062608?hl=en
***
Если нужно надёжно закрыть, то можно сделать доступ по паролю или с определённых IP.
http://lifeexample.ru/razrabotka-i-optimizacia-saita/htaccess-zapretit-dostup.html
Да, верно. По-этому потом проблемы, хотя вроде бы закрывал.
У кого взять информацию по IP?
Да сделать логин/пароль 1/1 для чужих и IP для себя прописать.
Гуглояндексы не пробьются. :)
***
Хотя сам вопрос маленького трафика из-за того, что была заглушка — спорный. У меня есть примеры когда валялось непойми-что в индексе, а потом хорошо пошёл трафик.
На первом сейчас в 3 мес 20 хостов (был 2 года закрыт в роботс), на втором сейчас уже 500, был свежерег.
В вебархиве чисто. ХЗ. Буду "посмотреть".
fosko, статья на тему: http://seoprofy.ua/blog/prodvizhenie-sajtov/probability
Ну это если запускаешь пачками. Лично для меня не актуально. Если много непоискового трафика, то доменные факторы нивелируются достаточно быстро.
Отдельные страницы закрытые в robots Google отправлет в сопли:
Блин, проиндексируйте мне ucoz. )
Бикос, зис ресульт ис нот эвейлебл.
Страницы в кэше гугла все же, или нет? ;)
fosko, статья на тему: http://seoprofy.ua/blog/prodvizhenie-sajtov/probability
Ну это если запускаешь пачками. Лично для меня не актуально. Если много непоискового трафика, то доменные факторы нивелируются достаточно быстро.
Спасибо. Если честно большинство на таких "обкатанных" лучше всего и стартовали.
Гугл говорят игнорирует это. Да и яндекс тоже - в выдаче появляется страница "владелец предпочел скрыть..."
Он это не игнорирует. Это лишь твоя рекомендация для гугла, которую обычно он выполняет. У меня лишь единожды было, когда гугл проиндексировал страницу, что закрыта в роботсе, и по какой причине он это сделал- загадка.
в .htaccess
RewriteCond %{REMOTE_ADDR} !ваш_IP
RewriteCond %{REQUEST_FILENAME} !-f
RewriteRule .* /closed.php [L]
а в closed.php
header('HTTP/1.1 503 Service Unavailable');
как только откроете, пойдёт индексация
Страницы в кэше гугла все же, или нет?
https://www.google.ru/search?ie=UTF-8&hl=ru&q=%D1%83%D0%B1%D0%B8%D0%B9%D1%86%D0%B0%20%D0%B8%D0%BD%D0%B4%D0%B5%D0%BA%D1%81%D0%B0%20404&gws_rd=ssl
вам их не покажут, но робот их скачивает ;)