- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Понимаю, что тема поднималась, но прошу помочь:
Сайт относительно новый (около месяца). Общее количество страниц сайта - более 3000.
Яндекс как проиндексировал все страницы, так они в индексе и остались. В Гугл, максимально было проиндексировано 2900 страниц, и с тех пор наблюдается постоянное выпадение страниц из индекса (наблюдаю через webmaster tools), сейчас опустилось до 1900, и продолжается падение. Никаких внешних действий по отношению к сайту не предпринималось (только некоторая внутренняя оптимизация).
Мне уже писали, что для Гугл это нормальное явление, но все-таки такое большое количество страниц выпало, что меня это беспокоит. Естественно, трафик с Гугла упал.
Подскажите, что делать для того, чтобы Гуглом были проиндексированы все страницы?
sitemap придумали умные люди, также проверьте все ли страницы залинкованы у вас, ато бывали случаи
sitemap придумали умные люди, также проверьте все ли страницы залинкованы у вас, ато бывали случаи
Sitemap есть, сразу сделал его, Гугл нормально считал его. Сейчас попробую обновить, вдруг поможет.
Перелинковка - если под перелинковкой имеется в виду, на все ли страницы ведут ссылки, то да - все перелинковано.
Текст уник на них? ....ото обычно с уником долго весят редко выпадают такие страницы.
Ни чего в алгоритме гугла не изменилось со времени написания вами прошлого топика. Накупите жирных ссылок на морду, количество страниц в индексе начнёт увеличиваться, но сайт уйдёт под фильтр.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Sower
Я понимаю что ничего не изменилось ))
Просто когда 1000 страниц вышло из индекса, хочется что-то предпринять. А по поводу закупки ссылок - пока нет такой возможности )) Но спасибо за совет.
Trafikgon
Насколько я могу судить, текст на всем сайте в целом уникален.
Но вот больше половины страниц сайта составляют что-то вроде словаря (то есть на одной странице есть слова, фраза, выражение, ее описание, примеры употребления, и т.п.) - то есть не очень большие по объему страницы. Судя по всему, именно они выпадают в большей степени. Можете подсказать, как поступать в такому случае? (получается, что на страницах не очень много информации, но тем не менее, как-то ведь сайты-словари поступают в таких случаях?)
Нужно повышать информативность сайта и убирать мало значимые страницы, можно закрывать их в robots.txt, чем больше качественных и уникальных страниц, тем лучше для всего сайта и для его позиций. :o