- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На сайте есть возможность листать список по 10, 25, 50, 75, 100
Список большой.
Т.е. скажем, в списке 2000 записей, если листать по 10, то будет ок. 200 документов + 80( если по 25) + 40 +27 + 20. Итого 367 документов на каждую категорю, не считая 2000 станиц с подробностями( по одной каждый элемент списка.
Как это отражается на индексировании поисковыми машинами? Не будет ли это засорением их базы?
man Динамические сайты :)
Я это знаю. Поэтому возмник вопрос. \
Цитирую:
--
Чем больше в этой очереди пустых, бессодержательных или совершенно одинаковых документов, тем меньше шанс у интересных и содержательных документов оказаться проиндексированными.
--
Но как я могу запретить страницы, если все они генерируются одним и тем же скриптом?
UEvgeny, проверять в скрипте user-agent, если известный робот - выдавать с тех страниц (наборов параметров скрипта), которые не надо чтобы попадали в базу, 301 редирект на то, что надо чтобы попадало в базу.
Interitus, это ведь можно посчитать клоакингом и т.п. ?
А потом иди доказывай, что не верблюд, когда из базы выкинут.
UEvgeny, клоакинг сам по себе не является нарушением. Выкидывают в таких случаях вручную, если только действительно спам подсовывать.
Interitus, иногда поисковики не очень отличают спам от не спама. Хоть и удаляют пока только вручную. Мне кажется, лучше вообще никакого повода не давать. Так спокойней как-то..
Вопрос такой.. Сколько страниц возможно индексировать без ущерба для основного контента? Весь основой контент доступен по ссылкам с главной.
В каком диапазоне лежит время переиндексации страниц яндексом?
Даст ли какой-то эффект если каждая страница сама себя в яндекс добавит?