- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Подскажите пожалуйста как быть если индексация в целом сайта упала со стороны гугл в 10 раз, с чуть более 1200 страниц - до 120 страниц.
Для примера; Яндекс индексирует нормально - более 8250 страниц, Рамблем порядком - 4000 страниц.
Может кто сможет подсказать возможное - падение.
------------------
Со своей стороны наблюдая, заметил падение после ряда обменов статьями и ссылками (все данные сайты нормально индексируються поисковиками - проверял в ручную), а также добавляя статьи в бесплатных каталогах. Думаю это не могло так неготивно отразиться. При этом - замечю, трафик с гугл не совсем большой был, а после падения как бы и вырос....
Результаты просмотра индексации в панели инструментов для веб мастеров в гугл - цифра загруженных (3500 страниц), в индексе (1200 страниц). Проверяю сторонней программой в гугл и на самом поисковике не более 100 слишнем страниц.
-------------------
Просто данная ситуация беспокоит - как бы Яндекс за Гуглом не пощел по петам?!
Спасибо всем за отклик.
не видя сайта все рекомендации равносильны гаданию на кофейной гуще
Проверяю сторонней программой в гугл и на самом поисковике не более 100 слишнем страниц.
Supplemental Indexом попахивает.
Есть бюджет? Закупитесь недорогими ссылочками на вылетевшие страницы.
Я, Вас правильно понял - в этом нет ни чего страшного, для вывода данных страниц в общую базу поиска достаточно просто - внешних ссылок.
Ну в идеале нужно устранить причину занесения страниц в дополнительный индекс, а то это как лечить зубы обезбаливающим. Если сайт в соплях - значит на страницах некачетвенный контент, или же сам сайт не удовлетворяет требованиям. Ну и, конечно, после исправлений подкрепить все ссылками.
Если сайт в соплях - значит на страницах некачетвенный контент, или же сам сайт не удовлетворяет требованиям. Ну и, конечно, после исправлений подкрепить все ссылками.
Даже добавить нечего. Ну кроме того, что обезболивающее иногда нужно принять, что бы потом было не больно лечить.
Вообщем, смотрите на контент вашего сайта, работайте над ним и закопайтесь ссылками. (последовательность можно менять).
Спасибо всем за участие.
Всплыл главный "кариес" - это контент. Тут то все и не однозначно.
Сайт не просто одно тематичный, а точнее сервис по разделам... каталог сайтов, каталог статей, доска объявлений, пресс-релизы. И соответственно говорить о 100% уникальности не приходиться. Сразу оговорюсь все публикации моддерируються.
Выходит, перед публикацией - перепроверять на уникальность - но это просто "маразом". Так как не мало ресурсов, порой очень хорошо посещаемых у которых контент на % минимум на 50 не уникальный.
Для эксперимента опубликовал одну из своих старых статей (которые ранее были размножены и оригинальные добавлены на различные ресурсы) - pisali, rusarticles - кому интересно могу продолжить список (домены не пишу и так ясно). Результат все "ок".
Так значит не все однозначно - порой читаешь (особенно на англоязычном форуме веб мастеров гугл), цитата одного из веб мастеров "гугл видит больше не уникальные статьи, мои индивидуальные статьи он вообще не видит и не показывает (имеется ввиду в список выдачи поисковика)"....
Понятно - ресурс большой и много материала. Но продвигаете Вы его не по материалам пресс-релизов, и, соответственно, трафика от них ждете немного. Поэтому, работать над их "уникальностью" нужно по возможности. А Вот статьи, например, нужно контролировать более тщательно.
Крупных ресурсов с копипастом много - Вы правы, но там у них траст, который перекрывает дублированный контент. У меня бывало несколько раз, что публикуется пресс-релиз на трастовой площадке, а на моем сайте гугл выкидывает эту страницу из индекса.
Поэтому нужно максимально продуктивно работать с контентом, над его "уникальностью".
Т.е. Вы имеете ввиду если бы мой сайт находился скажем в Дмоз, то таких проблем скажем не было бы со стороны Гугл?
А, также Вас понял так что по возможности - редактировать добавленные материаллы (перепроверяя на уникальность), со статьей и пресс релизами ясно. Статью на крайняк можно отправить автору для редактирования до уникальности. Достаточно ли будет в пределах 70-90%, или обязательно на 100%?
Спасибо.
Достаточно ли будет в пределах 70-90%, или обязательно на 100%?
Спасибо.
Скорее 80-90% достаточно.
А, существующие материалы - необходимо удалить?
Или попробовать вставить rel=canonical... ни кто не пробовал как отреагирует Гугл.
Спасибо.