luxs

Рейтинг
171
Регистрация
03.05.2006

Первые переходы обычно появляются через 1 неделю.

sniffer:
gasyoun, я не про влияние местоположения, а про ситуацию, что американец не может разместить свой сайт на российском сервере.

Почему? Я знаю например английские фирмы которые хостятся в россии... Хотя их интересуют только пользователи из англии.

Позиция в поисковике и реклама совершенно разные вещи.

На сколько я могу судить по своим русскоязычным проектам, которые стоят только на американском железе проблемм с этим не возникает.

Таргетинг для сайта гугл выбирает кроме всего исходя из таргетинга сайтов с которых ведут ссылки.

Я уже много раз приводил пример с чем как после прогона сайта по индийским(англоязычным) блогам на сайт пошли индусы по англоязычным запросам.

ПР1 это мало. ПР на выдачу не влияет но об общей ссылочной массе говорит... И говорит не в вашу пользу.

На каждую страницу нужно написать около 1-2кб уникального контента про товар. пару дней работы :o

У меня на новый сайт при правильном подходе гугл ел до 100 страниц в минуту. что приводило к тому что сайт на 50К страниц съедался за 2-3 дня после появления в сети.

Потом в индекс выходило около 20-30К страниц, и все это только на каталожных ссылках.

На поддоменах тут получше. Если домен раскрученый, то поддомен улетает в индекс быстро и и сидит там хорошо. так например из поддомена со 150К неуникального (!) контента в индекс вошло 110К и несет людям радость.

Главное чтобы на каждой странице сайта был уникальный контент для сайта.

Как ускорить индексацию? Идеального рецепта я не знаю, но скажу свой.

1. Сайт должен быть простой для роботов. Все страницы находились в 2-3х кликах от главной, не больше 100 ссылок на странице. Очень сильная перелинковка на самых глубоких страницах.

2. прогон по каталогам сразу.

3. несколько сильных ссылок на внутрянку.

4. гугглемап не пользую.

AG-Motors:

а что на нулевых сайтах бывает 10000 страниц? ну а если такое и бывает, но не 10000 сгенерированного отстоя, а хороших страниц - с уникальным контентом, и все они будут ссылаться на главную страницу, со временем главная страница получит ПР3

ну и конечно не быстро будут эти страницы в индексе, но со временем будут.

Бывает. Некоторые делают сайт и выкладываеют его сразу большой. Я так иногда делаю.

А теперь я хотел бы увидель формальный критерий отличия уникального текста от сгенерированного отстоя. Я думаю что такой критерий придумать нельзя. Точнее так, всегда можно сделать генерилку текста которая обойдет существующие критерии.

aspnet:
Гугл будет относиться к сайту также как к остальным, потому что есть такие технологии.
Правда я всегда считал, что это делается через NLB. Эта штука сама определяет загрузку канала и выдает нужный айпи. Опять же там есть опция что одному клиенту выдать один и тотже IP адрес.
Как так через DNS - можете подробнее описать ?
Это вы для эксперимента или у вас сайт подобный амазону ? :)

Добавить прокси сервера которые будут выбирать на какой конкретно сервер (IP) слать запрос это уже следующий уровень распределения трафика.

Пока я столкнулся с тем что на слабом сервере сайт не тянет. Выбор был или ставить сервер мощнее или два слабых. За два слабых говорило то что если один сервер падает, то другой хоть както будет жить. А если поставить три (у разных провайдеров) то вообще будет все в шоколаде.

Это у меня сделано так.

А записи днс серверов явно указывает на разные IP

# Это у меня ДНС сервера на разных хостах лежат

+ns1.dnssite.org:IP1:3600

+ns2.dnssite.org:IP2:3600

+ns3.dnssite.org:IP3:3600

# Это я поясняю какие у сайта NS записи

.mysite.com::ns1.dnssite.org:3600

.mysite.com::ns2.dnssite.org:3600

.mysite.com::ns3.dnssite.org:3600

А это собственно то где мойсайт лежит физически.

+*.mysite.com:IP4:3600

+*.mysite.com:IP5:3600

Этот командный файл уходит в tinydns которая собственно и делает все.

pingo:
как понять случайно? в браузерах прошит алго, который рандомно выбирает IP из массива?
..разжуйте, я просто не в курсе 😕

На сколько я понимаю ДНС возвращает несколько IP а браузер сам решает по какому пойти, а вот случайно или последовательно он перебиравет массив это уже незнаю.

Ну например так http://www.google.co.uk/search?hl=en&q=Pesticides+persist+in+ground+water&lr=

у меня первый 5 позиций одна и таже статья.

Мне как пользователю не понять зачем нужны 5 одинаковых сайтов, а вот владельцы сайтов наверняка другого мнения.

А вообще меняя каждое 5-8 слова уже можно добиться много чего, а если смотреть немного вперед, то попробуйте делать сложные замены, т.е. менять 1 слово на 2-3, тогда будет вариация не только по содержимому но и по длинне текста, а тут уже гораздо больше уникальности сразу вылезет.

Всего: 1153