- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Говорят ajax прикрыли? (google.com индексирует ajax)
Есть у кого-то данные проверенные на этот счёт ? (правда индексирует?)
И какие способы ещё есть нормально убрать контент от google.com?
rel=noindex и robots.txt сделано
Можно запретить отдачу определённых файлов с контентом ботам через htacces.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Сейчас глянул сохраненную копию - там нет контента, который аяксом подключается (google.ru).
Можно запретить отдачу определённых файлов с контентом ботам через htacces.
Применялась ли на практика данная идея?
---------- Добавлено в 06:44 ---------- Предыдущее сообщение было в 06:44 ----------
Сейчас глянул сохраненную копию - там нет контента, который аяксом подключается (google.ru).
спасибо за информацию
Применялась ли на практика данная идея?
Так вроде там всё элементарно, и не может не работать. Блокировка идёт по юзерагенту. Он и захочет получить содержимое, сервер ему не отдаст.
глянул сохраненную копию - там нет контента
Вроде ищет. Кэш.
Может в robots.txt скрипты не закрыли?
Я вообще понять не могу, о чем вы тут говорите.
Вопрос от ТС:
(правда индексирует?)
Гугл индексирует аякс уже не один год.
И какие способы ещё есть нормально убрать контент от google.com?
В выдаче решетка аякса # заменяется на знак вопроса ?
В чем проблема закрыть страницу?
robots.txt
мета тег robots для большей надежности
У гугла целая справка как работать с аяксом
Я вообще понять не могу, о чем вы тут говорите.
Вопрос от ТС:
Гугл индексирует аякс уже не один год.
В выдаче решетка аякса # заменяется на знак вопроса ?
В чем проблема закрыть страницу?
robots.txt
мета тег robots для большей надежности
У гугла целая справка как работать с аяксом
Получается можно просто закрыть страничку в robots.txt и добавить rel=noindex, nofollow и этого будет достаточно?
Получается можно просто закрыть страничку в robots.txt и добавить rel=noindex, nofollow и этого будет достаточно?
Nofollow и noindex лишняя работа, они от индексации страницу не спасут.
Лучший вариант и самый 100% работающий это к нужным страницам в код добавить тег:
Можете поставить и nofollow, но тогда робот дальше переходить никуда не будет.
А если сделать как я написал, то индексировать страницу он точно не будет, но переходить дальше по другим ссылкам на этой странице он продолжит. Сами решайте, как вам угодно.
В чем проблема закрыть страницу?
robots.txt
мета тег robots для большей надежности
У меня на сайте есть ссылка вида /download.php?.... Страницы по ссылке нет, по ней идёт скачивание файла. С первого дня в роботсе прописан запрет /download.php*, но каждый день гуглбот дёргает её.
но каждый день гуглбот дёргает её.
Ну, а вдруг там что-то новое ;), ссылки, например.