SeoWebC

SeoWebC
Рейтинг
78
Регистрация
09.05.2012
Должность
Основатель сервиса
Интересы
seo, интернет-маркетинг, спорт
SEO-эксперт
joost:
По каким алгоритмам Яндекс определяет естественность контента. Когда то читал, что в естественном тексте каждое слово встречается определенное количество раз. Вроде какой то математический или филологический закон такой есть. Кто в курсе?

все просто до безобразия. Вспомните сочинение на роке русского языка - вот это и есть естественный текст. И ни какие закрын не надо применять и правила.

serval:
Насколько нетематичная ссылка неэффективней тематичной?
Скупать только тематичные ссылки - это и дороже, и утомительней, особенно если они вечные.

я например имею такие предположения:

1) проанализируйте топ 50 и составьте своего рода график насколько тематичность представлена в донорах на сайтах топ 50. Потому что возможно по факту получится что высокую плотность тематичных доноров имеют только сайты топ 15 к примеру, а вы находитесь по запросу на 60 месте к примеру. Так вы сначала тогда закупайте ссылки нетематичные и пробивайтесь к этому топ 15, а затем когда пробьетесь то налегайте на тематические ссылки и чтоыб потеснить уже те сайты которые в своих донорах имею много тематичных.

2)Насчет поиска тематичных. Фишка в том что если ваш сайт к примеру тематички спорт. То в яндексе сайту с тематикой спорт могут быть близки не только сайты с тематичкой спорт. А к примеру по быванию также будет близки сайты новостных тематик и к примеру тематики дом (косвенно к примеру связано как о со спортом). Что хочу сказать чо если проанализировать тот же топ 50 и посмотреть каких тематик сайты там то можно узнать какие еще тематики яндекс считает близкие той тематике, к которой относится ваш сайт. Так же можно и по донорам тоже проследить. Тоесть таким образом расширится круг сайтов откуда вы сможете купить ссылки и они будт считаться тематичными.

lspartal:
День добрый

Есть сайт: 33stola.ru

Яндекс - проиндексировал почти все страницы.
Потом в админке сменили URL-ы.
Т.е появились копиии страниц.

Их попытались закрыть 404 ошибкой.
Но видимо сделали это не правильно.
И яндекс - не дает их удалить.


Пример такой страницы: 33stola.ru/stol/014.aspx
Как с помощью robots, закрыть эту страницу? ☝
Папку /stol/ закрывать нельзя, т.к там другие столы.

Попробовал:
Disallow: /33stola.ru/stol/014.aspx
Яндекс все равно дает добро на индексацию.

Прошу помощи.

а еще вы можете старые страницы удалить из индекса яндекса здесь http://webmaster.yandex.ru/delurl.xml

astronom_2:
Хочу чтобы снялся фильтр с этого сайта.:)

---------- Добавлено 21.07.2012 в 17:05 ----------



Нет главная страница прыгает минус 300 и + 300.( у всех разные сайты) Смена ревалентной тоже бывает.

я имел ввиду что может гугл меняет релеватную страницу и из за этого позиции резко падают а потом наоборот

uSEOs:
Добрый день, кто может подсказать рабочие методы для более быстрой индексации новых сайтов/доменов (которые добавлены только в ПС) рабочие на сегодняшний день...?
А то пока отсутствовал пол года по личным обстоятельствам, то, что-то старые методы уже перестали работать(((( если даже работают то не так эффективно(((

1) ссылки с социальных сетей

2) ссылки с каталогов пресс релизов

3) ссылки с новостных сайтов

4) ссылки с блогов

1) карта сайта

2) внутренняя перелинковка

3) создание рендомных ссылок, которые бы менялись при обновлении страницы

4) Да и вообще если приучить робота, что вы с определенной периодичностью наполянете сайт новой уникальной информацией то он к вам чаще заходить будет

Neamailer:
Насколько важна тайтловая составляющая конкуренции запросов в Яндексе? Кто, какие формулы использует? Каким софтом пользуетесь? Как вам такая формула: до 100 тыс документов в общей выдаче и до 500 документов по тайтлам? Значит ли это, что по запросу можно выйти в топ без ссылок? Главное посоветуйте софт. :)

Знаете не соглашусь. Да думаю несомненно количество в индексе страниц по запросу имеет отношение к определению степени конкурентности по запросу, но а как же другие метрики? Как же возраст? Как же тематичность? как же качество и близость тематики доноров? Тот же ТИЦ по которому косвенно можно оценить уровень траста сайтов топа? Если в топ 50 сайты с возрастом от не менее 5 лет а у вас сайту 6 месяцев то смысл смотреть сколько по запросу старниц выдало?

saynez:
Проверенно на 5 доменах, плюс еще у двоих человек схожие результаты.
Да, я знаю что люди закидывают по 1000 страниц в неделю и у них обходится вроде как без проблем.
Я уверен, что как минимум сайт помечается как подозрительный после заливки одномоментно большого количества страниц и отправляется на проверку, откуда с очень большой вероятностью отправляется под АГС на определенный срок. В чем смысл этих манипуляций Яндекса, честно не понимаю, может это глюк вообще какой?...

---------- Добавлено 21.07.2012 в 16:15 ----------

Конечно, если сайт старый, трастовый, то можно закинуть 30-80 (больше не пробовал) страниц за один день, и все будет ОК. Но если сайт молодой - несколько месяцев, то после опубликовывания большой пачки страниц, у меня все 5 сайтов залетели под АГС, из них 2 сайта через месяц вернулось в индекс, третий через два месяца вернулся, еще два до сих пор под АГС.

---------- Добавлено 21.07.2012 в 16:16 ----------

Хммм, вспомнил свой первый сайт, который залетел тоже под АГС и тоже как я теперь думаю за слишком большое мое усердие. Только купил сайт и давай я шпарить - наполнять его. А этот сайт еще дубли создавал и получилось внушительное количество страниц. После чего он через пару недель залетел под АГС, откуда он так не вышел за пол года, после чего я его переклеил на новый домен, где он живет и здравствует и позиции в выдаче кстати все вернулись.

Банить за то, что вы выложили информаии много уникальной на сайт???? Дак Яндекс наоборот эт ос радостью воспримет, потому что чем больше уникальной информации у него в индексе тем больше он может предложить пользователю при его запросе в поиске. Скорее всего просто у вас есть технические проблемы на сайте, что когда вы добавляли на сайт статьи то и у вас плодились дубли в больших количествах, что могло послужить неким пессимизациям со стороны поисковика, либо тот контент, что размещали неуникальный не разу. может вы взяли и рерайт сделали и считает что он уникальный. Если вы адвего плагиатусом проверили и вам показали его 100 % уникальность это не значит что он уникальный.

astronom_2:
А минус 400 и через час + 350 не хотите? И так месяц.

да у меня ест ьпроект так него через день позиции то +200 то потом опять -200, посомтрите а у вас случаем не происходит смена релевантной страницы из за чего позиции меняются?

spamers:
Здравствуйте форумчане.
Наблюдаю (не отвечаю по всем ли запросам, но по нескольким это явно видно, запросы к сожалению озвучить не могу) что опять рулят "простынки" (большой текст "о теме" щедро усеянный заголовками и болдами) за которые в недалеком прошлом яндекс песимизировал, теряюсь в догадках, это временно или можно смело "подстраиваться"?

Пока конкретных примеров нет то весь разговор в холостую

kdv12:
Это почему же? Ни чем не подкрепленное мнение?

TC, по поводу городов. Создавай на каждый город отдельный поддомен. Только сперва выложи все объявы на основном сайте, чтобы в индексе большая часть появилась. У меня есть один проект, у которого таким же образом (через поддомены) настроены города. И поддоменов таких около 200. И в таком виде сайт живет и процветает уже более года и нет никаких санкций и склеек. А плюсы очевидны. Каждому поддомену можно привязать регион в яндексе и вылезти в топ по НЧ и даже по СЧ (как в моем случае) в регионах без каких либо финансовых затрат.

посмотрите как построен wikimart.ru. Вы заходите на сайт програмно определятся откуда вы и задается на подтверждение правильности вашего местоположения. А дальше них на каждю товарную категорию делается поддомен. Тоесть каждый поддомен пот телевизоры компьютеры и прочее.

Всего: 286