- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На сайте есть возможность листать список по 10, 25, 50, 75, 100
Список большой.
Т.е. скажем, в списке 2000 записей, если листать по 10, то будет ок. 200 документов + 80( если по 25) + 40 +27 + 20. Итого 367 документов на каждую категорю, не считая 2000 станиц с подробностями( по одной каждый элемент списка.
Как это отражается на индексировании поисковыми машинами? Не будет ли это засорением их базы?
man Динамические сайты :)
Я это знаю. Поэтому возмник вопрос. \
Цитирую:
--
Чем больше в этой очереди пустых, бессодержательных или совершенно одинаковых документов, тем меньше шанс у интересных и содержательных документов оказаться проиндексированными.
--
Но как я могу запретить страницы, если все они генерируются одним и тем же скриптом?
UEvgeny, проверять в скрипте user-agent, если известный робот - выдавать с тех страниц (наборов параметров скрипта), которые не надо чтобы попадали в базу, 301 редирект на то, что надо чтобы попадало в базу.
Interitus, это ведь можно посчитать клоакингом и т.п. ?
А потом иди доказывай, что не верблюд, когда из базы выкинут.
UEvgeny, клоакинг сам по себе не является нарушением. Выкидывают в таких случаях вручную, если только действительно спам подсовывать.
Interitus, иногда поисковики не очень отличают спам от не спама. Хоть и удаляют пока только вручную. Мне кажется, лучше вообще никакого повода не давать. Так спокойней как-то..
Вопрос такой.. Сколько страниц возможно индексировать без ущерба для основного контента? Весь основой контент доступен по ссылкам с главной.
В каком диапазоне лежит время переиндексации страниц яндексом?
Даст ли какой-то эффект если каждая страница сама себя в яндекс добавит?