- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
ситуации:
1. mod_rewrite запрещен или нежелателен к использованию, потому что админы сервера хотят максимально снизить нагрузку
2. на сервере обработку запросов осуществляет нгинкс а там нет мод_реврайта, конечно правила можно и в нем прописать, но не для каждого же сайта такое делать и сделать это могут только админы сервера, а не рядовые пользователи
3. все хорошо, любители ЧПУ добились своего, нагрузили сервер правилами для мод_реврайта, сделали для каждой из 50 разделов сайта свое правило (чтобы было все понятно каждому человеку) но нужно закрыть "index1-1(2,3,4,5,6....100).html" и не закрывать index1-1-1.html
подумайте, что нужно для решения данных (придумать можно еще) проблем и представьте, что их можно было бы решить введением 1 простого заголовка....
1. Дык нафиг такой хостинг нужен тогда?
Впринципи доля здравого смысла в данном предложении есть... Но реализовывать новый велосипед поисковые системы врядли станут, да и незачем это.
The WishMaster, поймите же, что не все в жизни шаблонно и происходит именно так как вы себе это представляете... есть масса разных ситуаций, которые для вас не представляют никакой надобности и интереса, а для других они необходимы.
то что я написал в предыдущем посте, это лишь примеры, возможно эти задачи не возникают перед всеми разработчикам, но вероятность их возникновения все же есть, а вот пути оптимальной реализации нет, именно для этого создавалась эта тема... чтобы на нее обратили внимание разработчики поисковых систем, подумали и решили, что добавить еще одну условие не сложно и никому от этого хуже не будет, а некоторым будет очень даже лучше... (почему я уже описал в первом посте).
это тема не для обсуждения кому нужен фрихост, сколько они зарабатывают, будут ли они закрывать какие-то страницы от индексации и нужно ли им это, нужен ли кому-то хостинг без мод_реврайта или что такое нгинкс и чем он лучше апача для проектов с большим трафиком....
Это тема о том, что расширение настроек индексации даст возможность закрывать страницы в случаях, когда не подходит ни один из существующих методов.
Но реализовывать новый велосипед поисковые системы врядли станут
по вашему это велосипед? или вы думаете, что алгоримт проверки статуса в поисковых система более сложный?
if (... status!=200 || robots=='noindex' ...) {dont index this page}
Впринципи доля здравого смысла в данном предложении есть
хоть за долю спасибо....
Вроди все асилил.
3dn, не пойму зачем это нужно?
Я знаю что:
1) ЧПУ и бесплатный хостинг несовместимы.
2) Если есть хостинг с PHP и MySQL, то есть .htaccess со всеми вытекающими последствиями (по крайней мере есть PHP).
Если есть ЧПУ, не поддающееся нормальной логике, необходимо:
1) Срочно менять ЧПУ.
2) Если программист свой, срочно рубить ему руки, и менять программиста!
закрывать нужно только неинформациаонные страинцы.... вы понимаете это или мне еще раз повторить? закрытие с помощью всех существующих методов не подходят для решения данной проблемы... уж поверьте в этом мы разбираемся куда больше чем все запостившиеся здесь в настоящий момент времени вместе взятые, и если бы была возможность реализовать это robots.txt (а другие предложенные методы это чушь полная, люди даже не понимают разницу между блокировкой индексации страницы и участка кода на ней) мы бы уже это сделали.
.............................................................................................
Есть тут хоть 1 специалист? дети пишут, даже не вникнув в смысл предложения....
ОЙ, не стройте умника - все понимают разницу между СПЕЦзаголовком и другими методами (они ессно хуже). Ваша забота о загруженности поисковиков и серверов похвальна, НО! То, что пытались вам объяснить - что даже имющимися на сейчас методами не пользуются, т.к. принудительно (относительно нормальных сайтов на бесплатных хостах) - это плохо, и кто-то понимает это лучше вас.
И дор-сайты никто нничем не ограничивает, имея уже сейчас такую возможность в robots.txt - она ничем не хуже (для данного применения)того, что вы предлагали.
Вывод - иметь такую возможность хорошо, но кто-то должен ее еще и РАЗУМНО применять.
или вы думаете, что алгоримт проверки статуса в поисковых система более сложный?
if (... status!=200 || robots=='noindex' ...) {dont index this page}
думаю что более сложный...
Зачем поисковые системы будут вводить новые хедеры если все можно реализовать и доступными сейчас средствами, пусть не совсем и удобными для некоторых. Подстроим поисковую систему под себя? Это же ужасная глупость...
если все можно реализовать и доступными сейчас средствами
зачем придумывали новые языки программирования если можно было все на ассемблере делать, пусть не совсем удобным для некоторых....
Подстроим поисковую систему под себя?
глупости, нам ничего не нужно подстраивать, от отсутствия данного хедера мы никак не страдаем, это было просто предложение, которое помогло бы многим реализовать то, что без хедера реализовать очень сложно и неудобно или вообще нельзя (примеры я приводил).
думаю что более сложный...
очень зря.... я лично беседовал с работником одной из крупнейших поисковых систем по этому вопросу.... Так как вы не разработчик, то думаете если это поисковая система - то значит там все очень сложно.... на самом деле процесс сбора информации достаточно прост и схож у всех поисковых систем, вся сложность заключается в быстром поиске по ней и ее хранении...