- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вообщем есть у меня ру блог, которому уже месяца 2-3. Контент уникум полный (около 300 статей от 1,5 и болле тыс. символов), гугля индексирует, яндекс тоже какое-то время индексировал, но потом викинул нафик из индекса! Причиной похоже стало огромное количество ошибок, более 2 к, а проиндексированых страниц где-то 4,5 к.
Яшка выдает ошибки что-типа формат документа не поддерживается (если находит ссылку на фид) или что ресурс перемещен (если ссылка на трекбек).
Что я сделал?
Прописал в robots.txt запрет на индексирование как фидов так и трекбеков и чтобы ускорить индексацию сделал одну страничку со всеми ссылками на рсс и трекбеки на которую поставил ссылку с главной.
В результате количество ошибок не изменилось, просто они поменяли статус критичности на предупреждение, что мол страницы запрещены к индексированию...
Все это дело я смотрел в яндекс вебмастер.
Ну и как бы хер его знает этот яндекс. В инекс он страницы пока не вернул, хотя робот уже пару раз сделал ап в яндекс вебмастер.
Как думаете вернутся страницы в индекс? И как можно ускорить процесс?
Всетаки с яшки трафу ишло больше всего...
Прописал в robots.txt запрет на индексирование как фидов так и трекбеков и чтобы ускорить индексацию сделал одну страничку со всеми ссылками на рсс и трекбеки на которую поставил ссылку с главной.
Чёт непонятно. Если вы их запретили, как они будут по вашему индексироваться?
Контент уникум полный (около 300 статей
проиндексированых страниц где-то 4,5 к.
Как вы умудрились из 300 страниц сделать 4500? Дубликаты запрещайте.
яндекс больше не любит дублированный контент. поэтому создавать под каждый пост отдельную категорию и тег - плохая идея
Не любит ВП?! Врядли..
Просто уж слишком много дубликатов...
Как вы умудрились из 300 страниц сделать 4500? Дубликаты запрещайте.
типа на каждую такую страничку теги?
У меня сайты на wp отлично индексируются.
Дык, они то уже были проиндексированы до этого.
На каждую страницу несколько тегов в среднем штук 10, да и теги то как раз он любит т.к. именно по тегам в большинстве случаев приходят с яшки посетители!
Смысл запрещать теги? По ним приходят посетители!
К тому же вопрос не в тегах был. Сайт из индекса вылетел т.к. было большое количество ошибок из-за разрешенной индексации рсс и трекбеков.
т.к. было большое количество ошибок из-за разрешенной индексации рсс и трекбеков.
Не факт. А вот за дубликаты страниц мог.
Яндекс как раз любит Вордпресс, притом очень часто и в самых разных позах.
10 тегов на статью это жесть :) Рекомендую максимум 3
Все понятно, спасибо....