Эпопея продолжается. После переписанного Robots обновились данные в Вебмастере. Правда обновление датировано 25 августа. Страниц в поиске стало 19, хотя на деле, считая глазами, ну и при помощи сервиса Яндекс проверки индексации - их все ещё 8.
Кто-нибудь встречался с подобным?
Благодарю, так и сделаю.
Ясно. Ну в моём случае есть только внешние ссылки, вроде таких, когда в новости пишется "По сообщениям CBR", где CBR - это оригинальная новость на английском. Ну и ссылку я закрываю в nofollow, потому что знаю, что Яндекс не любит исходящих ссылок. В noindex не закрываю.
В тексте переспама ключевиков быть не должно - я слежу, чтобы слово не повторялось в абзадце, ищу синонимы и т.д. Другое дело, что в ряде случаев идет повтор, как например в "сезон сериала", тут как не изголяйся, смысловой синоним к "сезону" найти часто не выходит.
Ну мне вот сказали, что у меня плохо составлено Семантическое ядро (хотя я тупо заполнил параметры плагина All-in one Seo) и что из-за keywords - идет переспам ключевиками.
Посмотрел в Вебмастере, там два дубля счас - одна страница с измененным именем (после публикации менял её адрес-название латиницей) и первая и третья страница Категории "Сериалы", но сейчас я /page закрыл в Роботс. По-идее оба момента должны уйти.
Сделал вот такой Роботс, исходил из представленного здесь (спасибо!) и того что видел в сети в разных уроках. Так сказать гибридный, ибо не все параметры за что отвечают понимаю:
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /*comment
Disallow: /author
Disallow: /20
Disallow: /page
Disallow: /tag
Disallow: *?*
Disallow: *&*
Disallow: /*.php
Allow: /wp-content/uploads/
Host: сайт
Sitemap: сайт/sitemap.xml
Не стал закрывать "archives", потому что где-то читал что в ряде случаев это может привести к выпадению сайта. Прошлый раз, когда я пытался написать Роботс, как раз архивы были закрыты и сайт выпал. Но сейчас проверил - главная, категории (первая страница) и статьи в Вебмастере Яндекса "разрешены".
В вот кстати касаемо noindex. Достаточно чтобы в ссылке стоял rel="nofollow" или лучше ещё в noindex засунуть?
Вот тут я немного теряюсь, так как понимаю, что делов натворил, но не совсем понимаю как правильно (кроме как снести все к чертям).
Я заполнял три поля в All-in-One Seo плагине.
Впредпоследней новости "Сериалы по мотивам книг от канала Fox" считайте с ошибками, у меня так:
- Название записи: Сериалы по мотивам книг от канала Fox
- Заголовок: Сериалы по книгам Джонатана Келлермана и Отверженным от Fox
- Описание записи: Телеканал Fox рассматривает возможность заказа 2 сериалов: экранизации серии книг о Алексе Делавэре и Отверженных Виктора Гюго, перенесенных в наше время
- Ключевики: Alex Delaware, Алекс Делавэр, Джонатан Келлерман, Jonathan Kellerman, FOX, Роб Томас, Rob Thomas, Грэхэм Норрис, Graham Norris, Джерри Брукхаймер, Jerry Bruckheimer, Пэм Визи, Pam Veasey, Джонатан Келлерман, Jonathan Kellerman, Отвержденные, Les Misérables, Экранизация книг
Полагаю первая ошибка это огромное количество ключевиков. Плохо ли, что у меня Название записи и Заголовок - разнятся? Может быть не стоит запонять Заголовок вовсе? И может быть многовато слов в Описании? Или же его и вовсе не стоит заполнять?
В последней новости "Теорема Зеро" Терри Гиллиама" я попытался это исправить так:
- Название записи: "Теорема Зеро" Терри Гиллиама
- Заголовок: Ролик к "Теореме Зеро"
- Описание записи: Новый фильм Терри Гиллиама
- Ключевики: Не заполнял
Правильно я сделал, можно это считать работой над ошибками?
Спасибо! Ну как вам сказать, как я понял пытаясь разобраться в теме - Яндекс непредсказуем )
А это, как я писал выше - старая и плохая привычка. Вычищу все, когда буду чистить МЕТА и проверять какие тексты украдены. Ибо я это делал через поисковики, по кускам текста, но теперь вот узнал что есть программы и сайты, которые позволяют найти совпадения, если текст кто-то скопировал.
Увы, всех не знаю. А то, что по этому делу пишут обычно датировано периодом 2009-2011, найти свежей информации по вопросу очень сложно. А то и вовсе невозможно. И это когда мне совершенно не лень её читать. Опыт, а опыт любой полезен )
Вот видно первые два факта в совокупности и дали этот эффект. Так как после вылета в мае я с одной стороны оставил Роботс как есть, с другой вместо написания кучи тегов, стал эту кучу слов закидывать в МЕТА, предварительно вычистив теги (Кстати, до вылета в индексе было всего 6 страниц, к 213 просканированных). Как вы думаете - логичное предположение? Ну, что все по-второму кругу (если разбираться) по схожим, но другим, чуток, причинам. Эх, руки мои руки =( Даж обидно.
Третьего пункта я надеюсь у меня нет, так как проект изначально старались делать с упором на максимальное качество текстов. Но если что заметили - укажите, будет что совершенствовать.
Исключительно из-за сервиса "Оригинальные тексты", потому что новости воруют и я не могу откинуть факт того, что это - одна из причин АГС.
Вот пример проекта жены, заброшенного давным давно - http://dobrotut.ru/ Весь в индексе, а почти год не обновлялся. Для меня - парадокс.
Да я как раз таки и хочу над ним работать. Уберу жирный, пропишу Роботс нормально, тут ещё порекомендовали убрать излишнее количество ключевиков в статьях/новостях (я бухал всех актёров и все названия на русском и английском + сопутствующие связанные ключевики). Потом попробую написать Платону. Не поможет - ещё и диз поменяю, раз шаблон видится специфический. Больше что-то ничего в голову не приходит совсем.
Ну я по любому учту все советы, перед тем как писать Платону, так что уберу жирный, не вопрос.
Кстати, вопрос ко всем, кто это прочтет: Может такое быть, что если сайту поднять ТИЦ хотя бы до 10 и дождаться первого года с начала индексации, то Алгоритмы будут лояльней. Или связи нет?
Соглашусь. Удивительно другое, что я знаю как минимум три сайта с таким Роботом (один из которых заброшен почти год) с 100% индексацией.---------- Добавлено 05.09.2013 в 00:23 ----------
Спасибо. Ссылка на главную это наверное перебор, а ставится она по большей части, чтобы если текст утащат на ВК - его было потом легче отследить. К своему стыду отмечу, что не так давно узнал, что "GeekiLeaks.RU" не обязательно делать гипер-ссылкой, ВК все-равно текст превратит в ссылку при перепосте. Так что буду чистить странички, как только времени побольше будет.
Жирным выделяются только ролевантные слова, причем при первом появлении в тексте, один раз. Пошло это ещё со времен юности, когда в скобках писалось английское название курсивом. Сильно мешает? Или это ещё для Поисковиков плохо?
Про Роботса согласен, но как уже сказал - судя по-всему Яндекс иногда и плохого Робота прощает. Видимо к роботу у Алгоритмов, провались они, какие-то ещё претензии возникли. Эх =(
Спасибо. Возможно все из-за правого блока, где я постарался при помощи виджетов разделить обзоры на сайте. Или там изначально она написана криво?
Читают, 250 уников в среднем каждый день. Комментят редко, но это не показатель - я знаю сайты с посещаемостью 80 человек, где по 15-40 коментов к записи. Тут все зависит от того, есть ли на сайте "костяк", который использует его для общения. По моим наблюдениям (это мой 4-ый проект, но первый, который принадлежит лично мне) комментить начинают от 2000 человек. Если комментят при посещаемости ниже - только в случае сформировавшейся группы людей, которым нравится так общаться.
Скрипт поставлен уже после того, как сайт перестал Индексироваться - для защиты от воровства. Могу отключить, если так будет удобно посмотреть код.
Как написано выше - скрипт поставлен после возникновения проблемы. Про плохой Роботс знаю, при попытке написать его прошлый раз (в мае) сайт вообще индексироваться перестал. Касаемо остального - это WP + тема шаблона, я там ничего своего не писал и даже не понимаю, как оно работает. Поэтому буду признателен если объясните более детально, что не так.