Кирилл Кор

Рейтинг
1
Регистрация
04.09.2013

Эпопея продолжается. После переписанного Robots обновились данные в Вебмастере. Правда обновление датировано 25 августа. Страниц в поиске стало 19, хотя на деле, считая глазами, ну и при помощи сервиса Яндекс проверки индексации - их все ещё 8.

Кто-нибудь встречался с подобным?

tomat_ok:
Семантическое ядро это другое)
Вообщем keywords в статьях лучше вообще убрать

Благодарю, так и сделаю.

ttrader:
Грубо говоря, nofollow значит "роботам по ссылке не ходить!", а noindex - "роботам все внутри тэга не индексировать!". Разные вещи. Дублированный контент, который часто нужен для людей (фрагменты описаний однотипных товаров и тд) закрывается ноуиндексом.

Ясно. Ну в моём случае есть только внешние ссылки, вроде таких, когда в новости пишется "По сообщениям CBR", где CBR - это оригинальная новость на английском. Ну и ссылку я закрываю в nofollow, потому что знаю, что Яндекс не любит исходящих ссылок. В noindex не закрываю.

В тексте переспама ключевиков быть не должно - я слежу, чтобы слово не повторялось в абзадце, ищу синонимы и т.д. Другое дело, что в ряде случаев идет повтор, как например в "сезон сериала", тут как не изголяйся, смысловой синоним к "сезону" найти часто не выходит.

tomat_ok:
То что заголовки и тайтлы разнятся это нормально, делайте как раньше.
Описание записи тоже нормальное.
Ключевики (keywords) можно не использовать совсем.

Сносить ничего не надо)
Посмотрите дубли в гугл вебмастере https://www.google.com/webmasters/tools
Зарегистрируйтесь там если еще этого не делали.
Дальше когда информация обновиться зайдите в раздел "Вид в поиске" - Оптимизация HTML и там будет видно где у вас повторяются тайтлы или описания.

Ну мне вот сказали, что у меня плохо составлено Семантическое ядро (хотя я тупо заполнил параметры плагина All-in one Seo) и что из-за keywords - идет переспам ключевиками.

Посмотрел в Вебмастере, там два дубля счас - одна страница с измененным именем (после публикации менял её адрес-название латиницей) и первая и третья страница Категории "Сериалы", но сейчас я /page закрыл в Роботс. По-идее оба момента должны уйти.

Сделал вот такой Роботс, исходил из представленного здесь (спасибо!) и того что видел в сети в разных уроках. Так сказать гибридный, ибо не все параметры за что отвечают понимаю:

User-agent: *

Disallow: /cgi-bin

Disallow: /wp-

Disallow: /trackback

Disallow: */trackback

Disallow: */*/trackback

Disallow: */*/feed/*/

Disallow: */feed

Disallow: /*comment

Disallow: /author

Disallow: /20

Disallow: /page

Disallow: /tag

Disallow: *?*

Disallow: *&*

Disallow: /*.php

Allow: /wp-content/uploads/

Host: сайт

Sitemap: сайт/sitemap.xml

Не стал закрывать "archives", потому что где-то читал что в ряде случаев это может привести к выпадению сайта. Прошлый раз, когда я пытался написать Роботс, как раз архивы были закрыты и сайт выпал. Но сейчас проверил - главная, категории (первая страница) и статьи в Вебмастере Яндекса "разрешены".

ttrader:
Смените тайтлы, пропишите меты, все лишнее - в ноуиндекс и тд.

В вот кстати касаемо noindex. Достаточно чтобы в ссылке стоял rel="nofollow" или лучше ещё в noindex засунуть?

tomat_ok:
Еще можно убрать активные заголовки в статьях, они ссылаются сами на себя, это ни к чему.
sear4er:
Почти у всех кто обращается с АГС одна и та же ошибка. Все думают, что их сайт СДЛ, но посмотрите на свой - просто откройте внутряк и посмотрите какие в нём метатеги (теги) и какую информацию они несут, и вопросы сразу отпадут.

Вот тут я немного теряюсь, так как понимаю, что делов натворил, но не совсем понимаю как правильно (кроме как снести все к чертям).

Я заполнял три поля в All-in-One Seo плагине.

Впредпоследней новости "Сериалы по мотивам книг от канала Fox" считайте с ошибками, у меня так:

- Название записи: Сериалы по мотивам книг от канала Fox

- Заголовок: Сериалы по книгам Джонатана Келлермана и Отверженным от Fox

- Описание записи: Телеканал Fox рассматривает возможность заказа 2 сериалов: экранизации серии книг о Алексе Делавэре и Отверженных Виктора Гюго, перенесенных в наше время

- Ключевики: Alex Delaware, Алекс Делавэр, Джонатан Келлерман, Jonathan Kellerman, FOX, Роб Томас, Rob Thomas, Грэхэм Норрис, Graham Norris, Джерри Брукхаймер, Jerry Bruckheimer, Пэм Визи, Pam Veasey, Джонатан Келлерман, Jonathan Kellerman, Отвержденные, Les Misérables, Экранизация книг

Полагаю первая ошибка это огромное количество ключевиков. Плохо ли, что у меня Название записи и Заголовок - разнятся? Может быть не стоит запонять Заголовок вовсе? И может быть многовато слов в Описании? Или же его и вовсе не стоит заполнять?

В последней новости "Теорема Зеро" Терри Гиллиама" я попытался это исправить так:

- Название записи: "Теорема Зеро" Терри Гиллиама

- Заголовок: Ролик к "Теореме Зеро"

- Описание записи: Новый фильм Терри Гиллиама

- Ключевики: Не заполнял

Правильно я сделал, можно это считать работой над ошибками?

totalitarist:
А вы думаете, сам АГС существенно изменился по сравнению с этим периодом? Скорее всего, в каком виде он был тогда, в таком же примерно есть и сейчас. Вот тут ещё можете почитать про факторы АГСа.

Спасибо! Ну как вам сказать, как я понял пытаясь разобраться в теме - Яндекс непредсказуем )

awasome:
Вот скажите, на кой столько стронга в тексте? Это я сейчас не про агс, а про восприятие. Это же пипец как неудобно для глаз.

А это, как я писал выше - старая и плохая привычка. Вычищу все, когда буду чистить МЕТА и проверять какие тексты украдены. Ибо я это делал через поисковики, по кускам текста, но теперь вот узнал что есть программы и сайты, которые позволяют найти совпадения, если текст кто-то скопировал.

ttrader:
Никаких парадоксов, просто вы не знаете всех причин, за которые дают АГС. И, кстати, факт растаскивания контента ни разу не причина для АГС, это миф. У меня есть ГСы, которые не обновлялись по два-три года. Растащено все, фильтров нет.

Увы, всех не знаю. А то, что по этому делу пишут обычно датировано периодом 2009-2011, найти свежей информации по вопросу очень сложно. А то и вовсе невозможно. И это когда мне совершенно не лень её читать. Опыт, а опыт любой полезен )

ttrader:
Жирный шрифт и дизайн как таковой - заметного ничего не дадут. Основные причины: дубли, переспам и некачественный контент. Все остальное лишь "довески".

Вот видно первые два факта в совокупности и дали этот эффект. Так как после вылета в мае я с одной стороны оставил Роботс как есть, с другой вместо написания кучи тегов, стал эту кучу слов закидывать в МЕТА, предварительно вычистив теги (Кстати, до вылета в индексе было всего 6 страниц, к 213 просканированных). Как вы думаете - логичное предположение? Ну, что все по-второму кругу (если разбираться) по схожим, но другим, чуток, причинам. Эх, руки мои руки =( Даж обидно.

Третьего пункта я надеюсь у меня нет, так как проект изначально старались делать с упором на максимальное качество текстов. Но если что заметили - укажите, будет что совершенствовать.

ttrader:
Поднять тиц можно, закупив ссылок с тематически близких доноров. Только зачем он вам? Продавать ссылки не получится, пока сайт под АГС, а этому фильтру пофигу до количества входящих ссылок.

Исключительно из-за сервиса "Оригинальные тексты", потому что новости воруют и я не могу откинуть факт того, что это - одна из причин АГС.

Вот пример проекта жены, заброшенного давным давно - http://dobrotut.ru/ Весь в индексе, а почти год не обновлялся. Для меня - парадокс.

ttrader:
Конкретно про АГС, пока не будут устранены причины - фильтр останется. Возраст домена - лишь один из факторов, не самый весомый. Поэтому врядли АГС снимется после года. Работать над сайтом все равно придется..

Да я как раз таки и хочу над ним работать. Уберу жирный, пропишу Роботс нормально, тут ещё порекомендовали убрать излишнее количество ключевиков в статьях/новостях (я бухал всех актёров и все названия на русском и английском + сопутствующие связанные ключевики). Потом попробую написать Платону. Не поможет - ещё и диз поменяю, раз шаблон видится специфический. Больше что-то ничего в голову не приходит совсем.

tomat_ok:
Тег <strong> часто использовали раньше для лучшего ранжирования по запросам выделенным этим тегом. Сейчас это зачастую выглядит как спам и манипуляция поисковыми алгоритмами. В данном случае это не 100%, но немного напоминает.

Ну я по любому учту все советы, перед тем как писать Платону, так что уберу жирный, не вопрос.

Кстати, вопрос ко всем, кто это прочтет: Может такое быть, что если сайту поднять ТИЦ хотя бы до 10 и дождаться первого года с начала индексации, то Алгоритмы будут лояльней. Или связи нет?

Toan:
Есть мнение, что дело в контенте и не в ПФ, а в том, что в индекс Яндекса до наложения фильтра попало больше кол-во мусорных/технических страниц и дублей (шлак на сайте до сих пор не закрыт от индексации).

Соглашусь. Удивительно другое, что я знаю как минимум три сайта с таким Роботом (один из которых заброшен почти год) с 100% индексацией.

---------- Добавлено 05.09.2013 в 00:23 ----------

tomat_ok:
У вас хороший сайт, правда меня немного смутили пару моментов при просмотре. Почти в каждой статье ссылка на главную GeekiLeaks.RU и куча выделений жирным.

Плюс конечно в роботсе нужно закрывать технические страницы и дубли.

Спасибо. Ссылка на главную это наверное перебор, а ставится она по большей части, чтобы если текст утащат на ВК - его было потом легче отследить. К своему стыду отмечу, что не так давно узнал, что "GeekiLeaks.RU" не обязательно делать гипер-ссылкой, ВК все-равно текст превратит в ссылку при перепосте. Так что буду чистить странички, как только времени побольше будет.

Жирным выделяются только ролевантные слова, причем при первом появлении в тексте, один раз. Пошло это ещё со времен юности, когда в скобках писалось английское название курсивом. Сильно мешает? Или это ещё для Поисковиков плохо?

Про Роботса согласен, но как уже сказал - судя по-всему Яндекс иногда и плохого Робота прощает. Видимо к роботу у Алгоритмов, провались они, какие-то ещё претензии возникли. Эх =(

ttrader:
Кстати, тема какая-то стремная в плане кода, я бы поменял на что-нибудь попроще..

Спасибо. Возможно все из-за правого блока, где я постарался при помощи виджетов разделить обзоры на сайте. Или там изначально она написана криво?

Askara:
А какие поведенческие факторы на этом сайте?
800+ страниц у вас - Люди читают? Комментируют? Ставят на вас ссылки?

(100% уникальный контент, написанный руками) это не значит что он кому то нужен....

Какой то непонятный скрипт ещё не даёт просмотреть исходный код убрать бы его...

Читают, 250 уников в среднем каждый день. Комментят редко, но это не показатель - я знаю сайты с посещаемостью 80 человек, где по 15-40 коментов к записи. Тут все зависит от того, есть ли на сайте "костяк", который использует его для общения. По моим наблюдениям (это мой 4-ый проект, но первый, который принадлежит лично мне) комментить начинают от 2000 человек. Если комментят при посещаемости ниже - только в случае сформировавшейся группы людей, которым нравится так общаться.

Скрипт поставлен уже после того, как сайт перестал Индексироваться - для защиты от воровства. Могу отключить, если так будет удобно посмотреть код.

ttrader:
Попробуйте скрипт убрать, который запрещает контекстное меню в браузере. Не защищает никак, а ПС может воспринять как попытку клоакинга, проверено. И вообще у вас там перебор со скриптами. Длиннющие наименования классов в коде тоже выглядят странно. Для категорий не прописаны дескрипшены, роботса считай что нет, и тд и тп.
Вердикт: с технической стороны сайт хреновый, вот и АГС. Дорабатывайте, вернется.

Как написано выше - скрипт поставлен после возникновения проблемы. Про плохой Роботс знаю, при попытке написать его прошлый раз (в мае) сайт вообще индексироваться перестал. Касаемо остального - это WP + тема шаблона, я там ничего своего не писал и даже не понимаю, как оно работает. Поэтому буду признателен если объясните более детально, что не так.

12
Всего: 11