- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вы сказали "без анкоров". Что имелось ввиду?
Количество текста без учета текста ссылок.
Romiuss добавил 09.09.2010 в 14:28
Еще раз проверил контент на выпавших страницах софтиной "Advego Plagiatus". Все нормуль, нерастащили, уникальность высокая 90% и выше. Тогда не понятно из за чего в сопли закинуло?
За дескрипшн гугл вряд ли санкции наложит. Он его использует только для сниппетов, если его нет - использует текстовый контент. А что еще есть на страницах, кроме текста? урлы страниц как выглядят?
урлы страниц как выглядят?
сайт/catalog/part/23/ ; сайт/catalog/part/30/ и так далее.
На страницах есть вшитая яндекс карта, пару картинок и текст.
Что за бред несете? Вас же новички читают! И не надо говорить про НЧ и т.п. Дескрипшн читается Google, но используется только для сниппета. И то не каждый раз.
Правду люди говорят, а это вы сеете панику в молодых рядах.
Можно совсем без дескрипшина - тогда плохо но можно.
Одинаковый дискрипшин на всех страницах= сопли по полной.
Получается - лучше без дескрипшена, чем с одинаковым?
У меня он весь одинаковый, в админке могу вписывать дескрипшен только для главной страницы а движок раскидывает копии на все остальные страницы.
У меня вариантов не много убить дескрипшен совсем?
+
И еще мне кажется может быть из-за тайтлов, если у Вас дилнные тайтлы на всех в страницах, например из 10ти слов, где 80+% слов одни и теже на каждой странице , а меняется лишь одно-два слова
сайт/catalog/part/23/ ; сайт/catalog/part/30/ и так далее.
На страницах есть вшитая яндекс карта, пару картинок и текст.
Угу, понятно. Имена картинок поди тоже не уникальные, типа 1.jpg ?
В этом тоже может быть проблема, не любит гугл подобные названия. В идеале должно быть сайт/catalog/part/HЧ-запрос/ и картинки НЧ-запрос-1.jpg c уникальным alt. В этом случае, гораздо больше шансов, что такая страница не попадет в сопли. Ну и конечно некоторое количество уникального текста.
Miha1Low добавил 09.09.2010 в 17:20
Получается - лучше без дескрипшена, чем с одинаковым?
Конечно. Но при условии, что на странице есть текст.
Miha1Low добавил 09.09.2010 в 17:22
И еще мне кажется может быть из-за тайтлов, если у Вас дилнные тайтлы на всех в страницах, например из 10ти слов, где 80+% слов одни и теже на каждой странице , а меняется лишь одно-два слова
Да, абсолютно верно. Лучше короткий тайтл, но 100% уникальный в пределах сайта, с прямым вхождением НЧ.
С тайтлами все норм, писал вручную для каждой страницы.
Дескрипшен был одинаковый (убрал, везде пусто), докупил ссылок на страницы которые попали в сопли, обновил сайтмап и закинул его в ГВМ. Подожду пару апов поисковой базы, потом отпишусь по результатам. Может кому то будет полезно.
P.S. Спасибо большое тем кто откликнулся, родина Вас не забудет.
Romiuss добавил 10.09.2010 в 09:37
РЕЗУЛЬТАТЫ.
Вчера походу Гуглбот заходил на сайт, и прочухал что дескрипшен в норме (так как в ГВМ нет ошибок сканирования), запустил проверку позиций, иииииииииииии урааааа все вернулось на место, все старые позиции, некоторые даже + сверху.
Вывод - одинаковый дескрипшен на всех страницах = "сопли гугла"
p.s. Всем спасибо за советы.