El_Gato

Рейтинг
110
Регистрация
25.02.2008
lex724:
т.е. как я понимаю расположение в рубрике менее важно чем наполнение сайта с которого мы покупаем ссылку?

Рубрика важна для ТИЦ. Если вы в каталоге яндекса и хотите в нем добраться до вершин, ну тогда сайтам из вашей и близких тематик предпочтительней. Из соседей личше брать родственные темы, если она у вас вызывает ассоциации с вашей, можно брать, если нет - дважды подумайте...

А если вам каталог не важен, тогда покупайте с сайтов, содержание которых близко к вашему, так вы свою релевантность повысите и соответственно позиции в выдаче.

По всем правилам жанра за один IP забанить не должны... Это вобщем и не возбраняется иметь много сайтов, и размещать их на одном IP. Все зависит от наполнения, если оно будет качественное и уникальное, то Яша не только забанить не должен, но даже может к себе под крыло взять (я имею в виду ЯКа.), если вы туда попроситесь... Главное не испортить отношение к себе спамом и другими неблагородными постутками, а IP - дело десятое...

У гугла есть так называемые "песочницы", в которые он помещает новые сайты, но для рускоязычных сайтов, такой, на сколько я знаю нет.

Иногда выставляются на продажу старые домены, но их основная ценность - ненулевой PR и ИЦ...

А так все равны, ну или почти равны

На мой взгляд не очень корректно говорить можно или нельзя увеличеть количество ссылок на 1000 в неделю... все эти цифры относительные...

Для сайта у которго 150к беков, почему не может увеличитсья на 1к или даже 5к за неделю, а если же сайт новый, то тут извините, нужно скромнее быть. Если быть отсорожным, и не лезть наражон, то я думаю для нового сайта 200 - 300 ссылок в неделю вполне уместно...

И по поводу вирусного маркетинга, если у вас новый сайт, и беков немного, то на сколько, как вы думаете, реально увеличиться естественные беки. Я думаю, что не более чем в 2 - 3 раза за неделю. И опять отсчет надо вести от уже имеющихся ссылок, а не от потолка...

Str256:
Может я ошибаюсь...
Я сужу, по такому примеру. ТС проверял в Яндексе(можно проверить и сейчас) - совпадений не было. Я имею ввиду, не только 1-ю фразу проверять(совпадения есть), а весь приведённый абзац. А Double Content Finder находит кучу совпадений.

Double Content Finder стучиться только в Яндекс, но вот проверяет он не по чистому совподению, а по алгоритму, чешуйки кажеться называется. Суть которого, что текст разбиввается на пересекающиеся фразы из нескольких слов, и вот эти фразы, пусть более мелкие, чем предложение он и ищет... Это как отпечаток пальца (16 совпадающих точек считаются доказательством в суде), но только для текста.

aiklll:
Доброго вечера,
хотел спросить про индексацию сайтов с меню. На недавно созданном сайте получается слева css меню, ниже новости, справа тоже довольно обширное меню с другим дизайном и с ссылками на другие страницы, в результате на некоторых страницах контент посередине занимает столько же места или меньше, чем разные меню и новостные колонки, которые дублируются на каждой странице.
Поисковики считают такие страницы как дубли ? Нужно ли координально менять структуру сайта ?

мое личное мнение, что меню должно быть ровно столько, сколько необходимо пользователю для комфортного перемещения по сайте - т.е. одно удобное меню, ну и если желаете выход на карту сайта с каждой страницы...

А по поводу контента, если его нет то такую страницу можно вообще от индексации скрыть, ну или заполните контентом, лучше человеческим, ну или на кройняк хоть водички подлейте

Rus Ivan:
А чем проверяете уникальность? Просто интересно т.к. сам иногда балуюсь размножением, правда на англ.

Можно непосредственно ручным поиском в ПС точного совпадения, берете предложение и ищете... Но это долго и слегка переделаный текст уже не найдете... Есть програмки, я например DCFinder пользуюсь, вроде и сервисы подобные есть...

А по поводу вопроса зависит для того, зачем вам много копий... Если уважаете людей, которые к вам зайдут то 1 - 2 копии, притом ручками, или полный рерайт, а если для обратной ссылки - можете авто размножение заказать, но чем больше копий, тем неньше уникальность... Так что лучше не злоупотреблять этим, а то смысла иметь 1000 неуникальных статей я не вижу... в любом случае размножные статьи, мягко говоря не очень читабельны

kysok sabaki:
ИМХО: ничего ПС с этим сделать не может. сейчас.

Ну что ПС на данный момент могут а что не могут, я вам не скажу, да думаю и никто не скажет, т.к. это тайна за семь печатями, которую ПС хранят свято...

Но одно хочу сказать, что возможность это определить есть, благо поколдовав с JavaScript можно определить все атребуты слоев и по ним определить, что же видно на странице, а что нет... А используют ли эти возможности ПС и когда начнут, кто знает...

Да и текст картинкой заменять как-то глупо... Может просто через тот же JavaScript свой текст юзеру выводить

А вообще не занимайтесь спамом и тп, всеравно такой сайт будет жить до первого стука...

что-то я загнул по поводу JavaScript, можно же просто в css свойства слоя посмотреть

Если я ошибаюсь - поправте, буду рад избавиться от мифов...

Видел в нескольки источниках, что поисковики все же могут определять невидимые слои и текст расположенный на этих невидимых слоях вполне обоснованно, так же как и невидимый текст, будет считаться поисковым спамом.

Я не вижу принципиальной разницы, закрываесте ли вы текст другим слоем или картинкой, и последствия тоже не должны отличаться... Но а если я все же не прав, и ПС пока не могут определить закрыт ли текст картинкой или нет, то тогда поздравляю - вы изобретатель нового способа поискового спама

SciFi:
А для гугла из-за nofollow тоже никакого?

веса не даст, а вот заходить возможно станет чаще...

Всего: 196