- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
3)
- ну вот вообще никак не обоснованное утверждение. 90% доменов продлевают каждый год.
Продлевать то продлевают, но дата создания не меняется created:date
Спасибо Тарас, полезная, систематизированная информация.
drac, вот и пошли споры... отлично :-)
1. по IP сетки пасутся на ура!!! Уж поверьете мне :-)
2. По поводу контактов... Почитайте Факи самого Яндекса! Он отслеживает контакты на сайтах для лучшего геотаргетинга!
3. вполне возможно... но как 90% из непродленных это сетки наверно...
4,6. не один из фактором не является решающим!
5. Подумайте еще о частоте обхода... Я крайне редко видел выпадение морд и сайтов серьезных сайтов даже если сервак лежал... имхо... вполне возможно...
Я не говорю о том, что это все факты... Алгоритмов поисковика я не знаю, я предполагаю и даю на рассуждение, для этого здесь и опубликовал!
Подумал. Вот буквально недавно была проблема с хостером под одним из проектов. Хост не был доступен 5 (пять!) дней. Сайт тупо выпал из индекса. Прошла пара апов и сайт снова как новенький. Попал в индекс, отлично работает, хорошо ранжируется - короче проблем никаких. И я не думаю, что Яндекс хранит историю прецидентов по каждому сайту.
По поводу IP - я уже видел достаточно много убедительных постов про то, что их сетка ушла в бан из-за одинакового IP. Но мне все-равно кажется, что определяющим параметром был стук. А одинаковый IP - это просто самое простое объяснение, которое приходит в голову.
P.S.> по поводу полезности дискуссий и споров - я только за ))) Девиз: "родим новую истину"!
drac, по IP просто вычисляют сетку те, кто стучит! Сделать это не так и сложно... А у нас как и везде из зависти другие просто стуканут... Мол не могу сделать сам и зарабатывать деньги, так пускай другим хуже будет... имхо
Вполне логично можно предположить наличие такого явления как порог индексации, при котором критериями является не какой-либо фактор в отдельно, а совокупность☝. То есть речь может идти о позитивных и негативных факторах, которые влияют на индексирование сайтов. При этом факторы могут быть разные по значимости, что в целом дает почву подумать о возможности автоматического фильтра сайтов. Это означает, что поисковая система знает о сайте и назначает для него уровень доверия ☝(некая «карма сайта», сори, за такое сравнение), который прямо зависит от каких-либо факторов. При достаточном уровне доверия к сайту сайт успешно проходит порог индексации и становится доступен для пользователей поисковой системы.
Я думаю, именно про это и писал Садовский.
Грубо говоря, разместил дублированный контент - страница будет ранжироваться ниже, чем если бы на ней был рерайтинг. Добавил нетематических ссылок - еще меньше доверия. Еще под какой-то пункт попал - страницу выкидывают из индекса. Если таких страниц большинство - весь сайт вылетит.
IP - это не показатель. Прально, легче спалить, не более того. На 1 адресе живут сетки и по 100 и по 300 и очень даже успешно.
Как факты могу сказать, что для Яндекса не так важен код или Сис. Управления контентом, они там не чайники, чтоб мачить всех на с одной CMS. А вот контент, точнее его уникальность это да.
Проверял.
Сайт из сетки ушел в бан. Ну как и сама сеть. Ни чего не менял, кроме как самого текста на всех страницах. Полный рерайт и смена тематики.
Сейчас как пример для меня он в индексе и нет проблем с ним.
Уверен, что в Яндексе есть те, кто занимаются тем, что палят сети. Ну или на Яндекс такие работают.
Не поверю, что сам робот может понять перелинковку сети. Все линкуют по своему.
happy-joker, именно! В десятку! Вопрос в том какие именно факторы мотает себе на ус Яндекс! В конце концов все хотят именно качественный интернет! Дык почему же нельзя делать качественные сателлиты? имхо
P.S. Правда всегда найдутся те, кто захочет использовать это в других целях...
Nicola, перелинковка определяется моими некоторыми программами, что говорить про Яндекс, который на 5 голов меня умнее... Взамные ссылки меньше стали учитывать? Каталоги обрезали немного? С линкаторов меньше толку? Оптимизаторы растут и Яндекс тоже.. имхо
Вообще для себя уже давно принял решение, что сайт-сателлит должен быть полностью для людей. Если ваш сателлит будет интересен людям, Яндекс его никогда не забанит, не зависимо ни отчего. Естественно контент и диз должны быть уникальными, желательно, чтобы присутсвовала контактная информация (если сайт имеет отношение к фирме), но прежде всего уникальный и интересный контент. И будет вам счастье! :) ИМХО
Вот здесь вот: http://www.stardesign.org/bible/spravka/porog-index/
"Факторы порога индексации"
22) Признак сателлита - Часто используются неуникальные ссылки, которые клеятся
По моему как раз наоборот, на сателлит смотрят обычно разные анкоры (люди верят в миф о склеивании ссылок :)). А на естественный сайт - как раз много одинаковых анкоров (например вида "stardesign.org")