1. Страницы не выпадут, если инфа полезная
2. В большинстве браузеров стоят различные плагины, по которым поисковики собирают статистику посещений, к примеру Яндекс.Бар
Можно редирект не ставить, а просто закрыть дубли с id от индексации в robots.txt
Если сайты будут иметь разные контактные данные и продвигаться по разным тематикам, то все будет ок.
Hetzner попробуйте
- записи в рубриках есть?
- чпу настроили?
- .htaccess на месте?
1. h1 - используется только 1 раз
2. h2, h3...h6 могут быть использованы несколько раз. Распределяют заголовки по степени важности.
3. h3 является подзаголовком h2 и так далее
Если домен очень важен для вас, пишите письма через день Платонам.
Если не очень, то оставьте его, пусть отлежится месяц-полтора.
*Робот начал посещать сайт. Страницы должны появиться в поиске через 1-2 обновления поисковой базы.* - ни о чем не говорит, после такого сообщения несколько моих дропов зашли в индекс только через пару месяцев.
Goodlight
Как написали выше - "публикуя уникальные описания, рассказывайте яндексу об этом в панели вебмастера" и не тратьте время на мониторинг ;) Лучше больше текстов новых написать.
Понятия "неуникальный контент" у поисковиков как такового нет, все гораздо шире. Нужно больше заботиться о "полезности" контента.
Попробуй вот так:
Все от качества сайтов зависит. По некоторым группам сайтов иногда 60-80% залетает, по другим не более 40%.