- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
<META name="ROBOTS" content="NOINDEX, NOFOLLOW">
Я этим закрываю от индексации страницы, но все равно иногда жрет их, но в серпе пишет в сниппете, что доступ закрыт в файле robots.txt
обычно и там, и там блочу, не всегда помогает
New Member, ок. Указанная страница проиндексированна? По запросу site:имя_страницы и_текст_с_нее находится в ПС?
trirepetae, плохо ищите. Файл роботс не управляет индексированием, а управляет сканированием. Тоесть установив запрет на сканирование в роботс Вы просто даете команду боту не сканировать и если страница ранее была проиндексирована то она так и будет висеть в инлексе.
Установите в коде
<meta name="robots" content="noindex"> и уберите запрет на сканирование в роботс чтобы бот получил команду прочитать страницу. После прочтения он ее выкинет из индекса.
Да, я даю команду не сканировать, но ведь страницу из индекса я удалил через вебмастер, т.е. е уже там не было, но она все равно появилась несмотря на запрет роботс.
В любом случае запрет через <meta name="robots" content="noindex">, на каждой странице, попадание которой в индекс нежелательно, для сайта на wordpress технически реализуется сложно. Я даже не знаю как.
trirepetae, Вы можете урл страницы + скрин удаления показать в ЛС?
В любом случае запрет через <meta name="robots" content="noindex">, на каждой странице, попадание которой в индекс нежелательно, для сайта на wordpress технически реализуется сложно. Я даже не знаю как.
реализуй - http://wordpress.org/extend/plugins/ultimate-noindex-nofollow-tool/ 😂
Вы уверены? А это что http://clip2net.com/s/2K5uw
В общем-то гугл часто забивает болт на все это, у меня в коде мета-тег на многих страницах noindex, но он все равно в итоге в серпе показывает вот так
http://clip2net.com/s/2K5uw
У документа условно можно выделить разные зоны. Так вот, гугл может знать о существовании данного урл, но не индексировать содержимое по данному адресу (по разным причинам). Т.е. по тексту страницы вы его не найдете (при условии отсутствии данного текста в анкор-листе). Соответственно, в серпе данный урл тоже может появится по некоторым запросам (в том числе поиск страниц сайта, или запрос есть в анкор-листе). По крайней мере, мне это видится так :)
Надуманная аналогия из жизни: вы сами лично ни разу не были в заведении "Барсучья нора", но при этом вы слышали, что в этом месте, которое расположено по такому-то адресу, каждую пятницу звучит лаундж и выступает группа "Мобидик". Поэтому, если Вас бы спросили, "Не подскажешь заведение, где в пятницу можно отдохнуть, и желательно там звучит лаундж, да и вообще мне мобидики нравятся" то вы бы ответили "Барсучья нора" :)
У документа условно можно выделить разные зоны. Так вот, гугл может знать о существовании данного урл, но не индексировать содержимое по данному адресу. Т.е. по тексту страницы вы его не найдете (при условии отсутствии данного текста в анкор-листе). По крайней мере, мне это видится так
как вариант страница добавлена в сайтмап :)
как вариант страница добавлена в сайтмап :)
Сайтмап, ссылки на самом сайте, сторонних ресурсах и т.д. Я хотел сказать, что запрет на индексирование содержимого не означает запрет на знание о существовании самого адреса :)
Сайтмап, ссылки на самом сайте, сторонних ресурсах и т.д. Я хотел сказать, что запрет на индексирование содержимого не означает запрет на знание о существовании самого адреса
Спасибо конечно за разъяснение я не плохо разбираюсь в справках гугла как "ВУ" на форуме гугла :)
trirepetae, плохо ищите. Файл роботс не управляет индексированием, а управляет сканированием. Тоесть установив запрет на сканирование в роботс Вы просто даете команду боту не сканировать и если страница ранее была проиндексирована то она так и будет висеть в инлексе.
Установите в коде
<meta name="robots" content="noindex"> и уберите запрет на сканирование в роботс чтобы бот получил команду прочитать страницу. После прочтения он ее выкинет из индекса.
подтверждаю правоту easywind
страницы были закрыты <meta name="robots" content="noindex"> и в роботс но из индекса не выпадали. убрал блокировку из роботс - через 2 недели выпали. спасибо! (В ГУГЛЕ)