- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопрос в следующем:
Предположим, на сайте есть 100 страниц. На каждую можно попасть переходами на самом сайте. Но: предположим, есть еще 10 страниц, на которые с самого сайта перехода нет. Яндекс соответственно их не проиндексирует. Но что будет, если вручную послать робота на эти страницы, будут ли они постоянно в индексе, или робот расценит это как некий спам, т.к. на эти страницы с самого сайта перехода нет, и не будет их индексировать? Также может быть такой момент, что на эти страницы будут внешние ссылки, и Яндекс сможет узнать об этих страницах с других сайтов.
Что поисковик сделает с такими страницами?
По идеи, как я понимаю, это чем-то напоминает дорвей.
Вопрос возник потому, что заметил, что яндекс индексирует какие-то страницы на одном из сайтов, которых вообще реально нет. Все страницы генерятся через параметр ID, т.е. index.php?ID=1 и т.д. Но я тут заметил, что яндекс индексирует страницы с ID, которого реально нет. Но мой движок на это ошибки не выдает, ведь чего стоит сделать так index.php?ID=1&t=5. Т.е. появилась новая страница, но повторяющая страница index.php?ID=1. Т.е. 2 одинаковые на одном сайте - НЕХОРОШО.
Есть у кого-то опыт борьбы с такими "левыми" страницами самим яндексом. Не посчитает ли он, что страница index.php?ID=1&t=5 - правильная, а та, которая долго продвигалась, на которую куча внешних ссылок, и есть переход внутри сайта - не такая важная, и начнет показывать другую страницы вида index.php?ID=1&t=5 по данному запросу, но поставит ее очень далеко в поиске, т.к. на эту страницу нет внешних ссылок, да и внутри сайта на такой url не перейдешь.
У кого какие мысли?
1. Специально создавал, правда под НЧ, несколько страниц на сайте, на котором было невозможно добавить текст на существующие страницы (особенность тупого дизайна). Сайт поднялся в топ нормально. Думаю, будь это ВЧ, кто-ниб бы стукнул, а сам яндекс хавает.
2. убить двойные страницы можно через роботс, хотя это с такого рода адресами несколько хлопотно, но возможно, пробовал.
Если речь идет о CMS, должен помочь seopack какой-нибудь - плагин специальный.
Что поисковик сделает с такими страницами?
проиндексит, если найдет на нее ссылку
2 одинаковые на одном сайте - НЕХОРОШО.
Дубликат контента вегда плохо, не важно (почти) на Вашем сайте, или других.
вопрос, имеет ли смысл при прогоне по каталогам делать обособленную страницу с обратными ссылками (?), если есть как минимум 2 риска:
- ее найдут по ссылке - предположим каталог оперативно скормит ссылку на себя Яндексу, пока ее не убрали
- каталог ее не увидит, так как не прочтет страницу из-за объема кода
Вопрос возник не для того, чтобы реально делать такие страницы, а наоборот, как свой сайт обезопасить от них.
Как сейчас уже нашел инфу о логике ПС, то понимаю, что скорее всего, если на такие страницы нет ссылок, то они должны быть исключены из индекса, т.к. если не действовать по такому алгоритму, то конкуренты могли бы преспокойно регить несуществующие страницы саайтов конкурентов, и к примеру Яндекс бы просматривая и находя такие страницы, а они будут совершенно идентичные, смог бы посылать такие сайты в бан, ну или просто занижать позиции. Логичнее с точки зрения ПС поступать так: если на страницу вообще нет ссылоки, ни внутри сайта, ни внешних - значит со страницей что-то не то. Если же есть такая же в точности страница, но которая имеет определенный вес, хоть и даже внутри самого сайта (есть внутренние ссылки на нее), то ту дублирующую страницу можно вообще исключить из индекса.