Нет ситуация другая - По запросу: http://yandex.ru/yandsearch?clid=9582&text=%D0%9C%D0%B5%D0%BA%D1%81%D0%B8%D0%BA%D0%B0%D0%BD%D1%81%D0%BA%D0%B8%D0%B9+%D1%81%D0%BF%D0%B0%D0%BC
сайт находится на 4 месте (тИЦ - 120)
Выше находятся сайт - с тИЦ 0 . Как я слыхал тИЦ на выдачу не влияет. Но по каким пораметрам нулевые (по посещаимости так и по тИЦ) и новые сайты вылазят на первые позиции?
NifigaSebe добавил 13.08.2009 в 10:30
От Платона пришло письмо что санкций к сайту не применялось... Все ранжируется согласно их алгаритмики.
NifigaSebe добавил 13.08.2009 в 10:32
Он в первый месяц была на первном месте, далее свалился на 4...
2kril:
Читайте внимательнее сабж! Нужно определить есть ли та или иная страница в соплях! О том как определить весь сайт - все знаю.
Тоже попасть на ресурс не могу!
Гуглу всеравно на заголовкок. Ему важно содержимое в <body></body>, ну и соответственно титл и кейворды после этого.
Если по делу - разработчики ДЛЕ мало уделяют внимание на поисковую информацию которая выдает ДЛЕ при формировании публикации - пользователь или спамерская программа тупо забивает текст публикации, а ДЛЕ сама формирует заголовки и кейворды в хаотичном порядке. Для более "человечного" ввода кейвордов и метатегов используй вкладку в админке при добалении публикаций - "Дополнительно".
В поле "Метатег title:" вводится весь заголовок по сабжу минуя заголовок который "Название сайта:".
Ну опять все возвращается в наращивание ссылочного веса :), хотя этот метод развит только на пальцах и устной форме. Понятно что по логике все так и должно быть - чем "тяжелее" и старее сайт - тем увесистее сайт в ПС. Ну а как быть когда в выдаче на первых позициях находится пузатая мелочь которая открыла свой сайт на школьных каникулах и занимается копипастингом в свободное время? У них ведь сайты с ПР0-ПР1? Причем тут ссылочный вес?
Это не бонус новичка - это полная индексация сайта, закрепление его в топе от того что анализа сайта ещё не производился, а после того как гугл проанализирует его контент по всем алгоритмам - идет пессимизация от того что контент не уникальный и как следствие понижения самого домена в выдаче.
Сдается мне что Гугл к соплям добавляет ещё санкции или какое-то недоверия.
На протяжении 1,5 месяца делал тест - написал статью, далее стал наблюдать что эту статью копипастят к себе другие. За 3 недели её скописастило около 60 сайтов. В итоге, моего сайта в выдаче вообще нет, в 100 это точно. Как вообще такое может быть? В суппорт по этому поводу писать бесполезно. Как сделать так чтоб меня заметили?
И какую сумму ТС готов отдать за подобное?
Что это означает? Какая частота?
Такой вопрос. Как Гугл определяет уникальный ли это контент или нет? К примеру по запросу - http://www.google.ru/search?hl=ru&client=opera&rls=ru&hs=ZRe&num=20&newwindow=1&q=%D0%9F%D1%80%D0%B8%D0%BA%D0%BE%D0%BB%D0%B8%D1%81%D1%82%D1%8B+%2F+Funny+People+%282009%2FCAMRip+Proper%2F700Mb%2F1400Mb&btnG=%D0%9F%D0%BE%D0%B8%D1%81%D0%BA&lr=&aq=f&oq=
Схожесть текстов практически 100% . Не от истории и "трастовости" домена это зависит?