- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Случайно узнал, что поисковики не индексируют папку /cgi-bin/. Это правда ? Просто скриптец поставил, новостной, а он публикует новости в виде html файлов, но в папке /cgi-bin/.
Мне пришлось наоборот папку /cgi-bin/ закрывать от робота - т.е. у меня ротбот пытался эту папку индексировать
Еще как индексируют. Зайдите в Яндекс и поищите что-нибудь на этом сайте - вы получите большой список скриптов, проиндексированных роботом. Причем некоторые скрипты оказываются релевантнее обычных страниц
.
2 Sly: а что, сложно переставить место записи файлов? Или у тебя SSI используется?
2 Sly: а что, сложно переставить место записи файлов? Или у тебя SSI используется?</font>
Да я ещё толком со скриптом не разобрался. Пытался переставить, но не работает
Ну а если вы говорите, что всё ок, значит проблема решена
Спасибо !
Я бы не стал однозначно утверждать, индексируются или нет документы, находящиеся в папке cgi-bin.
Достоверно известно, что наряду с индексирующими cgi-скрипты поисковиками (Яндекс) есть поисковики не индексирующие cgi-скрипты (Рамблер; по крайней мере если и индексирует, то делает это в последнюю очередь; Апорт находится посередине: результаты работы скриптов он не индексирует, но по ссылкам проходит).
Как отличают скрипты от не скриптов поисковики могут рассказать только разработчики.
Я бы делал филтр так: однозначно закрывал бы по расширениям cgi, pl и т.д. (а так же прочую динамику типа asp,jsp,php и т.д.),
игнорировал все URL, содержащие ?.
И, чтобы жизнь мёдом не казалась, полностью фильтровал бы URL содержащие cgi-bin.
Хотя, теоретически, в папку cgi-bin можно положить и статическую страницу а ля *.html,
на практике многие веб-сервера настроены так, что любой документ в этой папке трактуется ими как cgi скрипт...
Подводя итог: если бы я хотел, чтобы мои страницы индексировались всеми серверами, я бы воздержался от размещения статических страниц в папке cgi-bin (хотя мой сервер этого просто не позволяет
)
Я бы делал филтр так: однозначно закрывал бы по расширениям cgi, pl и т.д. (а так же прочую динамику типа asp,jsp,php и т.д.),
игнорировал все URL, содержащие ?.
И, чтобы жизнь мёдом не казалась, полностью фильтровал бы URL содержащие cgi-bin.
</font>
...И да здравтвуют хоум-пейджи всех времен и народов
А если по существу, например, я полностью, от первой страницы до последней, строю сайты на Mysql и cgi, а в итоге появляются страницы с расширением *.html. Как с этим бороться будещь? Наоборот, поисковики должны индексировать все страницы, и статичные и динамические. А дело вебмастера - с помощью 'robots' или .htaccess, или иным способом, запрещать или разрешать индексировать те или иные каталоги (страницы).
...И да здравтвуют хоум-пейджи всех времен и народов
</font>
Ничего плохого в индексации домашних страниц не вижу. Наоборот - до свидания гуестбуки и "ленивые" форумы типа этого или моего.
Полезный форум должен по результатам дискуссии порождать факуху или хаутуху. Статическую.
До тех пор, пока Яндекс индексирует динамику, ни я ни Gray этого делать не будем. Ну разве что если только с Рамблером более плотно подружиться не захотим или одни и те же вопросы не надоедят
А если по существу, например, я полностью, от первой страницы до последней,
строю сайты на Mysql и cgi, а в итоге появляются страницы с расширением
*.html. Как с этим бороться будещь?
</font>
Если ты порождаешь статические страницы, как на этом форуме, то и бороться не надо.
noindex,follow ко всей динамике - максимум что может себе позволить поисковик, который заботится о качестве, а не о количестве.
А ежели ты вебмастер, а не так погулять вышел, то ты озаботишься тем, чтобы у тебя все динамические страницы выглядили статическими - никаких намёков на ?, &, = в url, вот тогда ты заслужил индексации.
И тут первыми "отвалятся" как раз сайты у большинства бесплатных хостеров, которые без зазрения совести можно отнести к разряду домашних страниц.
Наоборот, поисковики должны индексировать
все страницы, и статичные и динамические.
</font>
Приведу контр пример. Год назад, когда я делал сайт для цветочно-садового магазина, мне выдали задание полностью выкачать два сайта конкурентов.
При этом оба они были динамические. Один из них выкачался без проблем, а со вторым вышел конфуз. Ссылки у него тоже были динамическими.
И всего-то с десяток разделов, но возвращаешся к предыдущему разделу каждый раз по новой ссылке.
Если есть время - можешь поэкспериментировать на Яндексе. Могу предсказать судьбу такого сайта - сначала (и возможно довольно долго) он будет всплывать всё выше и выше по всевозможным запросам, а потом его забанят. Слабо опровергнуть экспериментально?
А дело вебмастера - с помощью
'robots' или .htaccess, или иным способом, запрещать или разрешать
индексировать те или иные каталоги (страницы).
</font>
Угумс. Запрещают только когда есть что прятать от всеобщего обозрения.
В противном случае задача вебмастера добится как можно более полной индексации.
А задача поисковика - избавится от мусора в базе, или как минимум добится того, чтобы этот мусор не всплывал.
Как обычно это было сугубо личное IMHO
А ежели ты вебмастер, а не так погулять вышел, то ты озаботишься тем, чтобы у тебя все динамические страницы выглядили статическими - никаких намёков на ?, &, = в url, вот тогда ты заслужил индексации.
И тут первыми "отвалятся" как раз сайты у большинства бесплатных хостеров, которые без зазрения совести можно отнести к разряду домашних страниц.
</font>
Все зависит от того, каким методом передавать параметры. Можно и без вышеуказанных символов обойтись
Но, иногда, бывает гораздо удобнее использовать именно их. И, согласись, что наваять хоум-пейдж во Фронт_пейдже требует гораздо меньше знаний, чем написать динамический сайт...
При этом оба они были динамические. Один из них выкачался без проблем, а со вторым вышел конфуз. Ссылки у него тоже были динамическими.
И всего-то с десяток разделов, но возвращаешся к предыдущему разделу каждый раз по новой ссылке.
</font>
Некоторые системы генерят временные каталоги для каждого отдельного юзера, но в принципе, скачать можно любой сайт
Угумс. Запрещают только когда есть что прятать от всеобщего обозрения.
В противном случае задача вебмастера добится как можно более полной индексации.
А задача поисковика - избавится от мусора в базе, или как минимум добится того, чтобы этот мусор не всплывал.
</font>
Запрет с помощью "робот" и т.п. от всеобщего обозрения малоэффективен. Для этого существуют другие способы. Если у тебя нет прямой ссылки на какой-либо каталог, поисковик и так не пройдет. Как правило, запрещают к индексированию именно твой любимый cgi-bin, чтобы лишний хлам не был проиндексирован.
Что касается мусора в базах поисковиков, то я знаю прекрасный способ (и относительно дешевый в реализации) сделать спам поисковиков абсолютно не эффективным, но... это уже, как говориться, бизнес, так что распространяться не буду. Хотя идея продается, но деньги вперед
Честно говоря, не могу понять сути вашего спора, ребята. Она есть?