orka13

orka13
Рейтинг
102
Регистрация
28.03.2011

Есть описание услуги 3.2, в нем можно скачать СЯ и инструкцией к параметрам (без рекомендаций), либо просмотреть в онлайн пример голого СЯ. Именно так как Вы хотите сейчас не делаю.

Объясню почему: раньше пробовал работать со своими копирайтерами по такому же приблизительно примеру, как вы указали. Но не получалось поставить жестких рамок, потому что количество использования ключа копирайтер должен смотреть, исходя из размера статьи, чтобы не провоцировать тошноту. А подобрать размер статьи еще при составлении СЯ трудно, опираясь лишь на частоту\конкуренцию. И если на практике загнать копирайтера в рамки размерами, то либо воды нальет никому не интересной, либо обрежет интересную статью, чтобы подогнать ее под размер. Это работает только для МФА с жадными вебмастерами, которые любят жесткую планировку бюджета и им пофиг на читателей.

В итоге я пишу только актуальные общие рекомендации по использовании ключа в текста\сео-тегах без переспала и искривления читаемости статьи. Указываю рекомендуемое количество вхождений, смотря по каким объёмам получается финальная статья. Копирайтер сам понимает, какие ключи важнее в статье, опираясь на «Частотность "!" [WS]».

Иван Сибирский:
Можно поподробнее раскрыть что это?

Информация была детальнее расписана в ТЗ. Переместил ее оттуда в описание услуги, раз в ТЗ реже заглядывают. Через пару часов сделаю примерный отчет по услуге 3.2 на тематику «Ремонт дома», выставлю ссылку в описание на него и обновлю статус-картинку. Тогда все станет на свои места.

Я не подскажу, практики по таким случаям нет. Ну, теоретически пессимизация могла быть только временная и вам остается только ждать, пока гугл все поклеит.

Судим логически: если бы сайт был старым (ну скажем, больше года), и тогда у вас такой косяк произошёл, то может по позициям бы и не заметили, те другие домены на идентичном континенте в индекс бы даже не попали нормально. А так вы с молодым сайтом продублировали контент…

Возможные действия:

- тупо ждать

- добавить парочку свежих статей уникальных (рекомендую в любом случае), изменить немного тексты на главной и разделах. По возможности и на внутряке, если мало страниц.

- если все будет плохо - забить болт и делать новый сайт на другом домене. Если вложения денег\времени в старый были минимальны.

Если уже стоит редирерект, то не надо его убирать и парится с виртуальным хостом. Просто на будущее: если бы в такой ситуации был прописан Host в robots.tx, то Яндекс, увидев ваш сайт по любому неправильному урлу, загрузил бы по тому урлу и robots.tx. И он бы понял, что этот домен отдельно индексировать не надо, так как это зеркало основного сайта, который нормально указан в robots.tx. Жаль Гугл еще официально этой директивы не поддерживает.

1. Размыто описана проблема с зеркалированем контента. На это м хостинге было пару ваших сайтов, на которых стало показывать контент одного из них? Или там только один сайт, но его проиндексировало на разных доменах? При втором варианте для Яндекса надо просто прописать в файле Host в robots.txt, и все склеится через пару апов.

2. Не надо парится, xtool.ru не показатель, н который следует обращать сильно внимание.

Atarion:
если набираю с www пишет - является неглавным зеркалом

Значит для Яндекса без www оптимальнее, все ОК. Вам уже писали, прописать нужный вариант можно директивой Host в robots.txt. Ну и редирект можно зделать.

Зачем вы убрали "Disallow: /index.php?*"? Вам подсказали место проблемы, но не говорили что ее надо вырезать под корень. Верните его назад, если помогало для других бед.

Теория: Гугл правила Robots.txt, для проверки работы чужого файла Robots.txt удобно использовать ЯВМ.

Практика:

Вариант 1:

в Robots.txt заменяем

Sitemap: http://euroeducation.com.ua/index.php?option=com_xmap&sitemap=1&view=xml

На

Allow: /index.php?option=com_xmap&sitemap=1&view=xml
Sitemap: http://euroeducation.com.ua/index.php?option=com_xmap&sitemap=1&view=xml

Вариант 2: Пытаемся изменить в движке адрес Sitemap на обычный статический. Может и не выйти.

allenatore:
повторно попробовал скормить карту сайта - выдаёт туже ошибку о запрете в robots.

Скорое всего ваши изменения в Robots.txt еще не скушал Гугл. Проверить в вебмастере что он видит в файле Robots.txt.

Ваано:
Вопрос по теме:
К примеру я слабо представляю как можно в статьи вписать ссылки на главную с анкорами "туры в Египет", "экскурции к пирамидам" и т.д. По смыслу как бы не правильно, что из текста статьи с такими анкорами будут на главную вести.

Пипец. Неужели у вас главная настолько убогая, что нет причин чтобы естественно порекомендовать ее пользователю? Я, например, если главная динамическая (постоянно краткие описания к свежим статьям идут), или на ней есть блок с какими то акциями\скидками, могу прописать:

1. Следите за новыми аукционными предложениями с турами в Египет на главной странице. Там всегда можно найти актуальное предложение по низким ценам.

2. Мы постараемся выложить свежие материалы последних туров в Египет наших посетителей на первой странице сайта. Следите за ее обновлением.

При частом ссылании делаете безанкорные ссылки, но вставляете ключи в околоссылочный текст. Результат пусть и меньше, но он будет, - и тошноту анкор-листа разбавляем, чтобы не спалится в будущем под санкции.

technolog:
Можно припарковать домен. Возраст будет идти. А можно повесить уникальную страничку и потихоньку наращивать ссылочную массу.

Нет. В нашем случае принято считать, что возраст (траст) начинает расти после размещения на домене тематической информации, которая частично будет перенесена и на полноценный сайт, когда он запустится. Или еще жестче – это возраст первой опубликованной тематической внутренней страницы.

Парковка ничего не даст, только возраст домена. Это удобно разве что когда ссылки в САПЕ будете с него продавать. В продвижение не поможет.

Просьба к модераторам данную тему закрыть (не удаляя). Все услуги с дополениями перенеслись в новый топик:

Аудит, подбор НЧНК ключей СЯ, парсинг Wordstat и выдачи, продвижение траффик-статьями

Всего: 532