- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как заставить гугл индексировать только морду сайта?
в роботс запретил все , что можно, двиг вордпрес. Проиндексировал все что запрещено, теперь хочу оставить только морду, но продолжает индексировать и совать в выдачу с пометкой, что страница не доступна и закрыта в роботс.
Очень нужно оставить только морду в выдаче
Как заставить гугл индексировать только морду сайта?
в роботс запретил все , что можно, двиг вордпрес. Проиндексировал все что запрещено, теперь хочу оставить только морду, но продолжает индексировать и совать в выдачу с пометкой, что страница не доступна и закрыта в роботс.
Очень нужно оставить только морду в выдаче
гугл роботс для сканирования использует, для того что бы полностью удалить страницы из индекса нужно открыть страницы в роботс, а в хедере прописать <meta name="robots" content="noindex">
гугл роботс для сканирования использует, для того что бы полностью удалить страницы из индекса нужно открыть страницы в роботс, а в хедере прописать <meta name="robots" content="noindex">
Если Вы блокируете страницы через robots.txt, Google-бот никогда не будет сканировать их и никогда не будет читать метатеги этих страниц.
✔
Если страница не запрещена к индексации в robots.txt, но заблокирована с помощью метатега, Google-бот откроет ее, прочитает метатеги, и впоследствии не станет индексировать.
рекомендации гугла! говорю же, гугл все равно индексирует и пишет "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее..."
Если Вы блокируете страницы через robots.txt, Google-бот никогда не будет сканировать их и никогда не будет читать метатеги этих страниц.
✔
Если страница не запрещена к индексации в robots.txt, но заблокирована с помощью метатега, Google-бот откроет ее, прочитает метатеги, и впоследствии не станет индексировать.
рекомендации гугла! говорю же, гугл все равно индексирует и пишет "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее..."
А я о чем написал, странно что вам не помогает. Если страница в индексе, но описание не доступно, значит он не может её сканировать, но и запрета к индексации он не видит...
А я о чем написал, странно что вам не помогает. Если страница в индексе, но описание не доступно, значит он не может её сканировать, но и запрета к индексации он не видит...
ну как же не видит запрета если он сам пишет, что она запрещена...
нужно позарез, что в выдаче была только морда
ну как же не видит запрета если он сам пишет, что она запрещена...
нужно позарез, что в выдаче была только морда
А как он может видеть если он не может просканировать страницу на которой добавлен метатег?:)
А как он может видеть если он не может просканировать страницу на которой добавлен метатег?:)
...разговор ни о чем...
тогда перефразирую, как скрыть линки от гугл, чтоб он их не видел и не переходил на них и не индексировал
...разговор ни о чем...
тогда перефразирую, как скрыть линки от гугл, чтоб он их не видел и не переходил на них и не индексировал
Как ни о чем? Вы хотите при запрещенном сканировании выкинуть страницы из индекса, так не получится, нужно разрешить боту сканировать страницы, а насчет не сканировать и не индексировать, пробуйте <meta name="robots" content="noindex,nofollow">
Как ни о чем? Вы хотите при запрещенном сканировании выкинуть страницы из индекса, так не получится, нужно разрешить боту сканировать страницы, а насчет не сканировать и не индексировать, пробуйте <meta name="robots" content="noindex,nofollow">
увы, но даный тег можно вставить только на все страницы... на отдельные не получиться
сделал 301 на морду пусть индексирует
увы, но даный тег можно вставить только на все страницы... на отдельные не получиться
сделал 301 на морду пусть индексирует
Если извратиться можно и на отдельные, например по признакам урлов, если таковые имеются, программер сделает.
Если Вы блокируете страницы через robots.txt, Google-бот никогда не будет сканировать их и никогда не будет читать метатеги этих страниц.
ошибаетесь: