- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Предлагаю принять участие в тестировании и доработке скрипта для автоматического управления индексацией сайта.
скрипт: metarobots.php
Позволяет с помощью файла управления metarobots.txt
Задавать для наборов страниц параметры мета тега robots
и проставлять link rel="canonical"
Управление тегами происходит с помощью команд в текстовом документе metarobots.txt по логике схожей с файлом robots.txt
Так к примеру, набор команд:
Canonical: *index.php* : +/
Canonical: *.html* : +html
Disallow: *?*
Позволяет в CMS Joomla склеить все страницы пагинации и запретить индексацию страниц отличных от формата ЧПУ, а также задать каноническими все документы .html
Скачать скрипт и прочитать полную спецификацию вы можете по ссылке:
meta robots php
Также интересно, какие еще возможности хотели бы видеть вебмастера в таком инструменте?
А не проще использовать изначально правильную CMS, где не нужно городить кучу вещей, чтобы получить элементарные вещи?
1. Извините но я пока не видел не одной CMS которая позволяет гибко настраивать meta robots и canonical.
Указывать для каждой страницы настройки индексации вручную я не считаю корректной работой.
2. Также не стоит забывать о самописных системах.
3. Конечно можно все подробно описать разработчику, но к сожалению разработчики не всегда выполняют ТЗ дословно.
Использование подключаемого скрипта позволяет минимизировать необходимость лезть в код при настройке индексации и контролировать весь процесс с помощью обычного текстового файла.
Довольно жестковый скрипт (comanda, znachenie, zapret; (($comanda)and($znachenie))!='' ???).
Логику тогда уже надо было делать более схожей с robots.txt.
В конце по умолчанию считается любое количество символов без указания звездочки.
Постановочные символы - * и $ (конец строки)
Путь указывается от корня
Disallow: /index.php?
Canonical: /*.html : +html (+ вообще убрать)
1. Извините но я пока не видел не одной CMS которая позволяет гибко настраивать meta robots и canonical.
Гибко по вашему это для каждой странице прописать канонический адрес?
Указывать для каждой страницы настройки индексации вручную я не считаю корректной работой.
Кто вам сказал что в кмс это делается вручную? Даже если и захотеть, сделать это довольно сложно когда адреса генерируются динамически.
Shatamba, вы просто суть не улавливаете.
CMS просто изначально не должна создавать дубли и отдавать нужное (контент, коды) по нужным адресам.
siv1987, По логике спасибо, вы правы нужно подстроить логику под оригинальную robots.txt , также я подумываю реализовать поддержку User Agent.
В плане гибкости.
По моему удобно и достаточно гибко одной строкой в текстовом документе управлять всей индексацией и rel canonical. Я не встречал такого ни в одной CMS.