XPraptor

XPraptor
Рейтинг
333
Регистрация
15.10.2004
Должность
Web Soft Developer
Интересы
Programming

Если стоит простой агрегатор, который без разбора фигачит все служебные данные в новости и прочую прикладуху - прямая дорого под фильтры. Если вы выбираете только полезный контент, при этом он становится сильно урезанным от изначального и заголовки немного модифицированы - никаких фильтров на вас не накинут, пока не будет стука прямого.

Я пару своими сайтами агрегирую новости с 20-и разных ресурсов по такой схеме, их в течении 10-30 минут агрегируют у меня еще около 50 прытких товарищей (которым я кстати послал письмецо, чтоб хотя бы ссылку на мой сайт одну поставили у себя в блоке), у этих товарищей агрегируют тут же еще по 10 прытких товарищей, вопрос на засыпку - кто попадет в бан из 2000 результирующих почти одинаковых новостей?

dobrosyn:
Да. Если не верите то почитайте книгу «РАСКРУТКА И ПРОДВИЖЕНИЯ САЙТОВ»
Автор: Алексей Яковлев. :)
Не знаю полностью ли не дает, но лучший эффект, если ссылка с сайта с большим тИЦ

У меня до сих пор есть сайты, на которые стоят только бэки - ниже ТИц-ем чем сам этот сайт. Не несите чушь уважаемый.

ТО, что нынешний АП подчинялся "тематичности" - бесспорно. А то, что новые скакнули - это скорее всего тот же преславутый "бонус новичка", о котором спорят и до сих пор нет ни положительного ни отрицательного ответа. Я в этот АП взлетел по двум новым проектам на офигенную высоту, а вот 10 старых сайтов упали на единицу, а еще 10 остались на своих местах. Хотя над старичками в тесение 6 месяцев велась активная работа.

Видимо для новичков не успевает сформироваться тематичная база в датацентрах, но со временем, тематика станет определена и они тоже займут свои места согласно расписанию.

Даже учет ссылочного явно определяет отношение гугла к тематичности, у меня пару сайтов есть, на них по Я (пока было доступно), а теперь по яхе - 35000 ссылок, а по гуглу -50 ссылок. И эти 35000 - не форумы и не только каталоги, это вполне нормальные статейные, обменные и прочие ссылки. Но гугл согласно своему алгоритму, почему-то отважно их не учитывает.

Поэтому, ИМХО, тематичность в Гугле будет сейчас играть ведущую роль.

Да, google тенденцию борьбы с платными ссылками резко начал отрабатывать. У меня к этому изменению ПР, один новый проект за 3 недели набрал от гугла 2000 уников в сутки, а потом я разместил там ссылки и посещение упало ниже 1К - сразу через два дня. Я почесал репу и убрал ссылки - через два дня посещение опять 2К, и тут пересчет - хорошо что успел снять ссылки, сайт с 0 на 3 прыгнул.

Теперь нужно искать подходы к гуглу, чтобы не впадать в немилость. Хотя, я думаю тут с подходами врядли прокатит. Гугл скорее всего не будет смотреть какие ссылки стоят, если их много и они не слишком по теме к сайту - однозначно понизит.

На счет не нулевого ПР:

Возможна продажа страниц любой степени удаленности от главной при ненулевом PR.

На счет сайтов - это шутка. С юмором у вас :)

Да не зачто этот сайт банить. То, что ВМ ключевики прописал слева - так они все в тему и я вляются неотъемлемой часьтю контента сайта. Согласен, можно было и красивее прописать, но он решил так. И все в пределах правил. Полностью описательные словосочетания для этого сайта, совпадают с тем, что есть на сайте и описывают полную структуру услуг. За что банить то? Вы уважамый ТС не видели еще реально вещей за которые нужно банить, вот вас например за такие темы :) .

Круто !!!

Сайту 2 месяца (софт, игры) 0->3

Сайту 3 недели (бизнес, производство) 0->5

upyrj:
Костя, ну зачем подогревать нездоровый интерес?
Я пока что не нарыл там ничего такого, ради чего стоило бы когти рвать.

Полностью за.

Я вот ни разу не поверю, что Каширин никогда не открывал логи апача в софте собственного производства. Ну пусть даже не в собственном, пусть в том же WebLog Expert, которые показывают в сотню раз больше информации и настраиваются фильтрами на просмотр чего угодно и ошибок и статистике по рекламным кампаниям и всего чего угодно.

Стыдно Константин издеваться над молодыми оптимизаторами, делая такие посты "наслаждаюсь" (c).

Чем там наслаждаться? Там нет десятой доли того, что умеет самый простой анализатор логов и при этом он не такой тормознутый, а работает локально на всей мощи машины.

Я могу признать, что такой пост можно делать, если человек напрямую финансово заинтересован в привлечении внимания к чему то, но вам то какя от этого польза, что школьнеги будут нагружать Я своими сайтами через этот сервис? В общем, Контсантин - не респект.

Ошибка не принмать страницы с нулевым ПР. Это именно основная масса ссылочного, которое недорого формирует ТИц и поднимает НЧ СЧ запросы в топ10. Я помнится именно из за этого не стал размещать код на своих сайтах. Аккаунт создал сайты добавил, но потом прочитал условия (они тогда были доступны только после регистрации) и не стал код размещать. Если у вас 1700 таких сайтов (вместе с моими) то это маловато :)

Вам правильно сказали - очень и очень трудно сделать сайт под Я и Гугл на одном движке. Также тематика очень влияет. В я все связанное с программированием, софтом, технической специальной тематикой - будет продвигать вверх намного труднее, чем в гугле, который сам вас начнет ставить в топ по этим темам. Но, вот что касается гуманитарки, объявлений, бизнеса - тут в Гугле будет очень тркдно поднимать, а Я сам вас будет тянуть в этих темах по НЧ и аже по некоторым СЧ.

Гугл любит структуру прямую и разные страницы. ТО, есть - на каждую страницу вашего сайта, должно ссылаться как можно больше ваших же страниц и ссылки эти должны быть со значащими анкорами (даже на главную лучше ссылаться значащим анкором со всех страниц, тогда есть шанс получить ПР5 только за внутренне ссылочное). При этом все страницы разных разделов должны серьезно различаться и навигация должна как минимум проинрывать в объеме на 70% контенту страницы. Если навигация равна контенту - то пиши пропало, черз некоторое время Гугл просто станет игнорить такие страницы по наименьшему числу ссылок на них (то есть в выдаче остануться только 10-40 страниц [в зависимости от объема сайта] на которые больше всего внутренних ссылок).

Яндекс же наоборот, вытянет все отдельные страницы и сам будет игнорить навигацию как не значимый текст страницы (не всегда правда, можно и упороть что тоже склеит страницы), а оставлять только контент. Плюс ссылочное ему последовательное нужно (это значит, что на каждую страницу должно ссылаться как можно меньше ваших ссылок, но они должны быть как можно ближе к главной по перходам).

При этом наличие заголовков H1 и H2 как можно выше - для Я играет ключевую роль, а для гугла намного меньше.

А рамблер вообще сам себе на уме там смешано все от обоих поисковиков.

В общем как вам и советуют, читайте разделы разные на этом форуме и думайте подо что вам лучше затачивать ваши сайты.

Всего: 3323