IG7

Рейтинг
84
Регистрация
07.04.2007
вэбмастер

а как проанализировать сайт на овероптимизацию и где?

оптимизацией особо не занимался, плотность ключевиков нормальная, тайтлы/дескр уникальны, тегов н1 по страницам не понатыкано, все чисто. разве что со ссылками перекрестными с другими сайтами может быть проблема.

Lor:
Я написал то же самое. :)
Я просто немного шире трактую понятие "уникальность": не только отличие контента от сайтов конкурентов, а также отличие страниц между собой.

страницы действительно сильно отличаются, есть несколько разделов с разными типами страниц, навигация на большинстве стр. уникальная.

Lor:
Смотря кому. :).

есть новые сайты с уникальнным контентом и минимумом навигации которые проиндексены на 20%

Lor:
Пару месяцев назад и топиков столько не было на тему "мой белый и пушистый сайт упал".

каждый новый апдейт куча вэбмастеров пускают слёзы что их сайт упал, а у кого-то поднялся, а потом опять всё возвращается на круги своя при следующем апдейте даже без активных действий. Но в данном случае это был длительный процесс растянутый на более чем полгода.

Lor:
Сегодня - это 80% проблем многих сайтов. И не только в Гугле.

навигации на сайте меньше чем на многих других сайтах конкурентов, тем не менее они в топе. Про наполняемость я умалчиваю - на некоторых 7 банеров с повторяющимися кусками текста по 100 символов и они в топе. Может быть дело в нехватке жирных внешних ссылок? Т.к. ПР у всех сайтов конкурентов 5-6 а у этого всего 4 на главной и 3 на некоторых внутри.

alexseo:
Не раз были подобные ситуации. При потере хороших ссылок. И наоборот, при появлении большого количества ссылок на сайт, особенно линкаторных и покупных, sitewide ссылок, ссылок с высоким PR. При значительных изменениях контента и структуры сайта, из-за неуникального контента. А может и просто Гугл глючил или новые алгоритмы испытывал. Что делать? Ждать, делать хорошие ссылки, убирать плохие (как входящие, так и исходящие), делать ссылки на разные страницы и с разными анкорами, закрывать в роботс неуникальный контент или перерабатывать.

в данном случае над сайтом практически ничего существенного не делалось. хороших покупных ссылок нет, поэтому вряд ли они резко пропали, контент/структура сильно не менялись. возможно гугл сильно невзлюбил гемблинг и даунгрейдит по полной программе релевантные сайты, по кр. мере ПР у них на 1 ниже при прочих равных условиях. Есть масса 5-6-ти летних чистых сайтов с пр0 по данной тематике.

Либо несколько ссылок с директори на "очень плохие" сайты сделали свое дело.

svift:
как показывает практика уникальность и саплиментам связаны лишь косвенно... гораздо важнее общая наполненность страниц сайта

Советы простые:
- минимум одинаковой навигации
- преобладание объема контента страниц над объемом навигации

а иначе и уникальность не спасет...

советы хорошие, спасибо.

в последнее время как раз над этим и идет/шла работа и были положительные результаты, но когда в индексе было 65% страниц а потом вдруг 5% и трафик почти полностью пропал, на это должна быть причина посерьёзней.

Я думаю контент+навигация это максимум 25% проблемы.

Lor:
Во-первых это не бан, а во вторых обратите внимание на наполненность страниц уникальным контентом(этот совет вытекает из соотношения саплементал/индекс)

соотношения саплементал/индекс ничего не говорит об уникальности контента. все страницы сайта с достаточной степенью уникальны. еще пару месяцев назад в индексе было 40% страниц а не 5%.

скинул, спасибо

Flux_2514:

1. Спам гостевых книг и блогов
Если когда-либо вы пытались получить входящие ссылки на свой сайт путем спама гостевых книг и блогов, то рано или поздно Гугл применит к вашему сайту 30-й фильтр. 95% сайтов, вебмастера которых использовали различные программы для спама заполучили вызов 30–го фильтра, и связано это с тем, что спам через программу гуглу определить проще всего.
Выход из этой ситуации тем сложнее, чем чаще вы использовали этот метод, а конкретнее, надо пройти по всем сайтам на которые был разослан спам и связаться с web-мастерам, чтобы они удалили все ссылки на ваш сайт из своих гостевых книг и немодерируемых блогов.

2. переадресация чарез JavaScript
Переадресация чарез JavaScript может быть одной из причин, т.к. может быть интерпретирована поисковым crawler-ом как спам, лучше всего использовать переадресацию 301 htaccess.

3.Использование дорвеев.
Google не любит дорвеи, и однозначно считает дорвей – спамом. Поэтому если вы использовали страницы с дорвем удалите их или запретите через robot.txt.

Что вы можете сделать, если Гугл применил 30-й фильтр к вашему сайту?
Прежде всего, Вы должны удалить элементы спама с вашего сайта. Если Вы используете JavaScript переадресацию или дорвейные страницы, удалите их.

1. спам гостевых и т.д. никогда не проводился

2. а) что имеется в виду под переадресацией? внешние аффилиэйт ссылки сделаны через переадресацию, под каждую отдельный .php файл в папке, которая в robots.txt запрещена для индексации, т.е. в гугле индексе этих файлов нет.

б) местами где-то остались ссылки вида <A href="#" onclick="javascript:window.open('http://www.site.com')">

в) банеры вынесены в отдельные .js файлы где они потом случайно выбираются из списка (3-6штук) посредством JavaScript. В прошлом году гугл "грамотно" прокравлил мои JavaScriptы и в индексе появились страницы вида www.mysite.com/www.affiliatesite.com/myuniquelinkID

но потом я переделал скрипты и запретил индексацию таких страниц ч/з роботс.тхт и они пропали из индекса.

3. дорвеи не использовались никогда

VikVik:
Какие действия предпринимались?

изменение шаблонов страниц с контентом, уменьшение кол-ва линков на них.

есть т.н. директори на сайте там где много линков на ресурсы со сходной тематикой. все исходящие линки проверялись на "битость" и качество (>=пр3) и удалялись.

хостинг в чехии, там в сетках куча адалт сайтов. но этот сайт сидит на выделенном Нидерландском айпишнике с парой других сайтов.

есть сайт на совершенно другом хостинге в штатах, но ситуация там аналогичная.

начал работать с andrew. в теме разбирается, получил много ценных советов, по результатам отпишусь.

Всего: 69