- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Это так, он игнорирует robots, и директивы в нём
Это Ваши, собственные ошибки на сайте, вводят в заблуждение.
Пример показал? Показал. Работает? Работает.
easywind, какие к черту ошибки на сайте, если файл robots.txt содержит 2 строчки
Disallow: /
😂
Расскажите мне про ошибки на сайте, которые разрешают любому хоть сколь-нибудь порядочному поисковику, для которого этот файл не пустое место, индексировать хоть что-то. А я послушаю.
hypnoise, метатег ноиндекс на все страницы и откройте в роботс. Отсканирует и выкинет из индекса.
Чего? Это так, он игнорирует robots, и директивы в нём 😂 Возможно не всегда, но собственный сайт как раз и был приведен, как пример этого косяка.
А где-то написано, что я этим удивлён? Цитату пожалуйста 😂
Извините!............
---------- Добавлено 29.12.2013 в 12:38 ----------
easywind, какие к черту ошибки на сайте, если файл robots.txt содержит 2 строчки
😂
Расскажите мне про ошибки на сайте, которые разрешают любому хоть сколь-нибудь порядочному поисковику, для которого этот файл не пустое место, индексировать хоть что-то. А я послушаю.
Я в этом увидел удивление!
Поскольку уже давно..............!:)
Сначала удалял (из индекса), но потом забил, на это!
Я на днях искал с телефона и планшета отзывы о стройматериалах европейских компаний, которые даже я слышал (будучи совсем не строителем).
И обалдел, получая по запросам "N отзывы" 3-4 запроса. Списал на странности мобильной версии и ушёл искать в Яндекс :)
какие к черту ошибки на сайте, если файл robots.txt содержит 2 строчки
😂
Расскажите мне про ошибки на сайте, которые разрешают любому хоть сколь-нибудь порядочному поисковику, для которого этот файл не пустое место, индексировать хоть что-то. А я послушаю.
на роботс гуглу совершенно плевать, они специально разделили понятия на сканирование и индексирование, причем, исходя из справки, индексирование возможно не смотря на запрет сканирования в роботсе :) , если тему вообще раскрыть, то гугл может сам изменять тебе значения в роботсе, т.е. виртуально подставлять свой :) - к примеру - две команды
vs
одна из них с неправильным синтаксисом 😂 - НО - посмотри как их обрабатывает яндекс и гугл.
то же самое стало относится и к 301 редиректу - пс не следует четким указаниям вебмастера т.е. решает сама уже за него что и как - почитай эту тему внимательно :)
hypnoise, метатег ноиндекс на все страницы и откройте в роботс. Отсканирует и выкинет из индекса.
easywind, Вы уверены? Испытайте сначала свои советы на практике.
Неоднократно наблюдала как страницы входят в индекс, несмотря на то, что были изначально закрыты от индексации и в роботс, и на странице в noindex, что порекомендуете в таком случае с высоты своего "опыта"?
easywind, Вы уверены? Испытайте сначала свои советы на практике.
Неоднократно наблюдала как страницы входят в индекс, несмотря на то, что были изначально закрыты от индексации и в роботс, и на странице в noindex, что порекомендуете в таком случае с высоты своего "опыта"?
ноиндекс в странице не будет обработан т.к. страница не будет просканирована, но она может быть в индексе т.к. бот например мог проиндексировать ее раньше, когда она была открыта или же он пришел на нее по ссылке :) - то же самое относится и к любому др тегу в хеде и даж к 404
p.s. вот кстати поподробней на эту тему
ноиндекс в странице не будет обработан т.к. страница не будет просканирована, но она может быть в индексе т.к. бот например мог проиндексировать ее раньше, когда она была открыта или же он пришел на нее по ссылке :) - то же самое относится и к любому др тегу в хеде и даж к 404
sok3535, Страницы были закрыты так на стадии разработки сайта. На время тестирования доступ к сайту был только у разработчиков (ограничили доступ по IP) :)
Да, на на открытых страницах были ссылки в скриптах на закрытые страницы (кнопки) + люди добавили несколько ссылок парочку на закрытые страницы. И вся пачка закрытых страниц вошла в индекс и висит там не один месяц. Удаляет из кеша только вручную, но некоторое время спустя страницы снова в индексе. :)
sok3535, Страницы были закрыты так на стадии разработки сайта. На время тестирования доступ к сайту был только у разработчиков (ограничили доступ по IP) :)
Да, на на открытых страницах были ссылки в скриптах на закрытые страницы (кнопки) + люди добавили несколько ссылок парочку на закрытые страницы. И вся пачка закрытых страниц вошла в индекс и висит там не один месяц. Удаляет из кеша только вручную, но некоторое время спустя страницы снова в индексе. :)
свой ответ выше дополнил ссылкой - как пример.
p.s. по факту - выкинуть стр из индекса, вы сможете поставив в хед ноиндекс и дав боту просканировать эти страницы либо отдав на них 404 ошибку, опять же, с условием - открыв эти стр в роботсе