- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
По мимо того, если генерится статика, то как вариант - добавить несколько строк кода в этот механизм, если создаете файл php то автомат вставлять в него тэг ноиндекс.
Корректней тогда уже автоматом вставить мету robots со значением noindex.
можно и 404 страницу, все, что угодно.
Я описал лиш программный механизм, а что выдавать если способ понравится, автор темы думаю решит сам.
Не можно, а нужно, т.к. в этом случае нет никакого риска. Отдавать пустую 200 - и риск бана есть небольшой (если модератор по стуку не особо вникать будет, а зафиксирует лишь сам факт клоакинга), и запросто можно нарваться на автоматическую чистку сайта из-за большого количества дубликатов (пустых страниц) в базе. А вот если вдруг контент непустой будет - тогда бан очень вероятен.
2wolf
Корректней тогда уже автоматом вставить мету robots со значением noindex.
>> Согласен
Отдавать пустую 200 - и риск бана есть небольшой
>> Поисковые машины на сколько мне известно игнорируют пустые страницы. Но это уже не по моей части, я не специалист по поисковым машинам. Я описываю программные методы.
Pavel2005, не могу въехать в проблему.
В форуме страницы выдаются наверняка по шаблонам. Найдите шаблон соответствующей страницы и вставьте в него предложенную Сергеем "мету robots со значением noindex".
Pavel2005, не могу въехать в проблему.
В форуме страницы выдаются наверняка по шаблонам. Найдите шаблон соответствующей страницы и вставьте в него предложенную Сергеем "мету robots со значением noindex".
Совершенно верно. Страницы формируются по ОДНОМУ шаблону. Так как я вставлю в ОДИН шаблон эту директиву? Мне нужно ЧАСТЬ страниц запретить...
Pavel2005, не могу въехать в проблему.
В форуме страницы выдаются наверняка по шаблонам. Найдите шаблон соответствующей страницы и вставьте в него предложенную Сергеем "мету robots со значением noindex".
Что-то меня замутило ;) Решение простое и верное. Для форума разные шаблоны.
Спасибо :)
Один вопрос решен.
Теперь как мне .php запретить?
если не нравятся описанные выше решения, то вставте в шаблон между тегами head
<?
if(strpos($_SERVER['SCRIPT_NAME'],".php")) echo "<meta name=\"robots\" content=\"noindex, follow\"> ";
?>
Хорошо, а если такой вариант.
К примеру я в robots.txt запрещаю индексацию всех файло с расширением php следующим образом:
Disallow: /announcement.php
Disallow: /attachment.php
Disallow: /calendar.php
...
и т. д.
Будет ли Яндекс индексировать в этом случае скажем страницы типа announcement.php?что-там_еще...?
И как, если этот вариант не подходит, запретить к индексированию все страницы после *.php?...
Спасибо.
Будет ли Яндекс индексировать в этом случае скажем страницы типа announcement.php?что-там_еще...?
Нет........
Нет........
Т. е. этого достаточно для запрета всех страниц *php?...?
Прошу прощения за такую назойливость ;) В этих вопросах я "ламер"... пока :)