В принципе вполне можно начать продвигать сайт до его фактического открытия, повесив, например, красивую флэшку, рассказывающую о светлом будущем, которое будет на сайте через неделю/месяц/год. А пока собственно сайт верстается, заняться рассылкой пресс-релизов в сетевые СМИ.
Но чтобы пойти по этому пути и получить к моменту фактического запуска сайта кучу входящих ссылок, надо чтобы ваш будущий сайт был весьма ожидаем целевой аудиторией. Или много денег потратить на пиар.
Вот помнится МТС за неделю (или даже раньше) до открытия тарифа "Джинс" всюду рекламировался именно по этому слову, не объясняя собственно что к чему, а разогревая интерес.
Если это не про вас, то странно начинать продвижение того чего нет. В каталогах вас не зарегестрируют, ссылками вы меняться не можете, поисковикам индексировать нечего, т.к. сайт не готов.
Вариант выложить сырую версию сайта с кучей страниц "Under construction", а потом добавлять нужные странички по мере готовности категорически не советую. В каталогах и пр. все равно не зарегестрируют, а в поисковиках может быть только хуже - попадут в кеш убогие странички и будете потом полгода ждать когда вас переиндексируют.
Однозначно лучше подготовить сайт целиком и полностью и потом начать его продвижение.
На вашем месте я бы:
1. избавился от динамики: так чтобы URLы выглядели не так как сейчас: http://www.zmszt.ru/detail.htm?value_label=%D126360&partition=%CA%EB%E0%EF%E0%ED+%E7%E0%EF%EE%F0%ED%FB%E9&tf=
а более человечески, например вот так: http://www.zmszt.ru/katalog/C26360.html
2. В каталоге ссылки на "человеческие странички" поставил бы не только с номера чертежа, а с полного наименования изделия например вот так: клапан запорный C26360.
При этих условиях роботы поисковиков скушают все ваши карточки товаров да еще и с правильным текстом ссылок.
Собственно, вот ответ, почему Googlebot теперь иногда прикидывается Мозиллой:
Кстати этот новый робот Гугля кушает значительно больше 101к со странички. Особенно больших страниц у меня правда нет, но 320к он съел полностью и полностью положил в свой кэш.
А вот кто знает что это за робот такой:
66.249.65.69 "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Ходит активно по моим сайтам параллельно с
66.249.64.66 "Googlebot/2.1 (+http://www.google.com/bot.html)"
Кстати, так как он подписывается Mozillой, то странички получает сжатыми gzip. Не будет ли с эти проблем?
Вот еще один интересный факт в тему. Есть очень большой сайт, открытый в июле 2004, внешних ссылок на него 9 штук, PR=0 на всех страницах, а вот в индексе Google присутствуют 92000 страниц этого сайта (практически все).
Единственное что отличает его от других похожих - сайт рекламируется на Google по программе AdWords, а на страницах сайта размещена реклама AdSense.
Похоже, участие в одной из этих программ помогает googlebot оставить в индексе все что он нарыл, несмотря на PR.
IMHO, googlebot во-первых, переиндексирует сайт каждый раз заново, вытягивая все его страницы для правильного определения их PR. А вот в индекс попадают только страницы у которых PR>1 или на которые ссылаются страницы с PR>2.
Так что конечный итог зависит как от ссылочной структуры сайта, так и от PR главной страницы (если считать что все внешние ссылки ведут в основном на главную).
Если ссылочная структура идеальная для веших целей, то единственный способ заставить Google включить больше страниц в свой индекс - поднять PR главной страницы внешними ссылками. (Точнее поднять PR самих страниц, которые нужны в индексе, можно и прямо на них ссылаться извне, но для 50к страниц это затруднительно).
Кстати, может кто знает кроме Amazona еще сайты, у которых в Google проиндексировано >100-500,000 страниц ?
Возвращаясь к теме вопроса про 100,000 страниц - типичный пример такого сайт Amazon.com. На текущий момент Google знает 2,900,000 его страниц, которые к тому же занимают очень хорошие позиции в выдаче.
Так что при грамотном подходе такая тактика может принести очень хорошие результаты. Только это очень недешево будет, конечно.
Денис, у меня VISA Classic от Альфа-Банка и я ни разу не испытывал с ней проблем, хотя пользуюсь ей весь активно. На вскидку помню что Amazon, Networksolutions, VeriSign, Efax, Yahoo ее принимают без проблем. В остальных местах тоже ни разу не было проблем.
В качестве billing address достаточно указать домашний или рабочий адрес.
Начнем с того, что как оказалось, китайский знают только 10%. И еще 10% знают японский, что не очевидно.
Если кому это интересно, вот полные данные о распространенности различных языков в Интернет. Там же есть и прогноз на 2004 год и сравнение популярности языков с вкладом в мировую экономику.