UserControl

Рейтинг
26
Регистрация
04.06.2017

С яндексом картина становится более менее ясна. Пару страниц ранее закрытых от индексации и позже открытых попали в индекс, высвечиваются в результатах поиска.

Не ясна картина с гуглом. 3 февраля через

Google > Search Console > Сканирование > Посмотреть как Googlebot

отправлены запросы на индексацию 2-х страниц.

Статистика сканирования показывает, что робот посетил 61 страницу (все закрыты от индексации кроме 2-х). В результатах поиска до сих пор страниц нету.

Не сориентируете, как проходит индексация в гугл и когда страницы начинают отображаться в поиске?

Segey:
Не брать в выдачу, не брать никуда... Будете висеть с 20-30 страниц по вебмастеру пока не сделаете как надо...

Не понял. 😕 Что Вы имеете ввиду?

Подниму, с позволения форумчан, свою старую тему...

Мы тут высокопарно разговаривали о дублировании контента на разных страницах сайта и песимизации, связанной с этим.

А тем временем жители деревни Виллабаджо давно помыли посуду хозяйственным мылом, а жители Вилларибо до сих пор мучаются пытаясь отмыть посуду от «Фэйри»...

Подскажите, как это понимать? Тык и Тык.

В индексе более 100 страниц с абсолютно одинаковым содержанием, отличающемся только несколькими словами друг от друга.

В глубоком шоке... Ничего не понятно... Может быть seo это псевдо-наука и вся вся информация об оптимизации в сети вымысел...

😮😕

*где смайл со стеной?*

богоносец, т.е. вы хотите сказать, что для вывода сайта в топ по нч запросам нужно алализировать вордстат с учетом того, что статистика может быть накручена сеошниками. Верно?

богоносец:
С т.з. систем контекстной рекламы, совмещённых с т.н. поисковыми системами... основной концепцией является

Согласен. Не справедливо, но логично. С концепцией ПС всё более-менее понятно. Больше вопросов вызывает, какой концепцией пользоваться оптимизатору. Вы говорите то не так, это не так. А как по вашему надо, какой выход и способ достижения поставленной задачи?

Ingref:
Вот такую информацию и нужно размещать на продвигаемых страницах

Я могу прикрутить похожие модули к сайту, но по этому пункту возникло целых три вопроса :o

1) Большинство таких модулей подинклужено со сторонних ресурсов (например яндекс расписание, бронирование отелей и т.п.). Контент не уникальный и чужой. Разрабатывать подобное самому - не совсем разумно имхо. Мой инструмент - парсер, инструмент агрегаторов - прямой доступ к БД. Как это воспримется поисковиками?

2) Эти модули повторяются на большинстве страниц сайта (например яндекс расписание авиарейсов). Как это воспримется поисковиками?

3) При адаптивном дизайне добавление подобных модулей сильно увеличит размер страницы. Не разумно ли их отключить для смартфонов при уменьшении размеров окна браузера?

з.ы. Если рассматривать конкретно мою тематику, то самым важным для посетителя является цена. Подобные модули будут носить скорее декоративный характер и будут ориентированы скорее на поисковые системы, чем на посетителя. Ну да ладно, раз говорите, что так лучше - сделаю...

богоносец:
Ну а есть в выдаче что-нибудь из того, что вы задумали?

Если вы про скрытую ссылку, то для себя выводы сделал. Согласен - не есть хорошо, отбрасываю такой способ.

Если про то, о чем я писал в #11 посте, то до конца логика ПС не понятна, т.к. это не дает новичкам даже малюсенький кусок пирога с общего стола взять.

Если создание уникальных по контенту страниц под несколько однотипных НЧ может быть не одобрено ПС, то назревает следующий вопрос: какова основная концепция раскрутки сайта. Получается, что внешняя ссылочная масса и только (если опустить перелинковки, урлы, и т.п.). Так?

богоносец:
Изучите выдачу по своим НЧ.

Что вы имеете ввиду под изучите? Я изучаю. Там собственно изучать особо нечего. СЯ скупое, конкуренты фигачат статьи: местами копирайт, местами рерайт, местами копипаст, местами вперемешку. Контент в большинстве своем оптимизирован под сео, ключевики в титлах, заголовках. Внешняя ссылочная масса в основном с помоек, социалок, форумов (определять кто из таких ресурсов является трастовым пока не научился). Ну некоторая внутренняя перелинковка, ключевики в урл, кто то пошел по пути директа. Все в общем то как всегда...

богоносец:
Почему-то прогон по каталогам ещё не вспомнили.

А это еще работает? По логике, ПС в первую очередь должны были-бы бороться с мусорными баками ссылок. Или вы про Яндекс Каталог говорите? Не понятно, вы одобрительно про прогон упомянули или не одобрительно.

богоносец:
Под “санкции” попадает не “я” и не сайт, а домен.

Утрируете. Вы же меня поняли, а это главное.

Ingref, У меня сайт будет посвящен междугородним пассажирским перевозкам. Полезный сервис будет только один - заказ такси.

Вы вместе с богоносец, говорите, что мои знания устарели и что сейчас так сайты раскручивать не желательно.

Вопрос: а как правильно сейчас раскручивать сайты? Где актуальную информацию можно найти на эту тему, как отделить зерна от плевел? Может быть блог какой-нибудь можете порекомендовать...

Вы меня озадачили. Я думал, что можно ролевантный трафик с низко-низко-частотников пособирать, не вступая в суровую борьбу с конкурентами за нч и сч запросы. А вы говорите фильтр. Посоветуйте новичку как быть?

В нете встретил только одну радикальную статью про сео: тык

Но автора уж больно жестко в комментариях полоскают. Все в голове перемешивается. Трудно определить в чем есть истина...

Ingref:
вы заранее знаете, что статьи будет стыдно показывать людям

Статьи показывать будет не стыдно. нормальные, полноценные статьи. Уникальные, написанные разными копирайтерами.

Соль в другом. Под такого вида запросы, как приведены для примера выше, я думал написать 5 статей, содержащих информацию о населенных пунктах. Например в данном случае о городе Екатеринбург. Т.о. я имею 5-ть страниц, но эти страницы по смысловой нагрузке идентичные и урл у 4-х из них не вменяемый. Поэтому на одну из таких страниц хотел сделать ссылку с сайта, а 4-е остальных спрятать (как вы подсказали в sitemap.xml). Суть от этого не меняется? Все равно баден с пандой?

SmileP:
Девяносто 5-ти уникальное текстовое наполнение на странице нашего интернет магазина в г. Москва может являться спамноватым, как и тексты на старо славянском.

А какой % уникальности должен быть, чтобы не было проблем?

богоносец, Ingref, подождите, либо мы друг друга не поняли, либо я туговат...

Мне не понятно почему я должен попасть под санкции? Допустим имеем 15 нч запросов (для примера):

cтатистика по словам Показов в месяц

екатеринбург пермь самолет расписание 120
екатеринбург пермь самолет цена 69
рейс пермь екатеринбург самолет 60
билет на самолет екатеринбург пермь 53
самолет пермь екатеринбург расписание цена 49
пермь екатеринбург самолет прямой 47
пермь екатеринбург самолет прямой рейс 39
авиабилет пермь екатеринбург 121
перелет пермь екатеринбург 38

и т.п. и т.д.

Вы утверждаете, что если я на сайте размещу 5-ть уникальных (95+ % уникальности) статей (страниц) по 3000 символов. И каждую из этих страниц заточу под 3-и запроса, с частотой поисковых слов не более 2-3% - то выхвачу от поисковиков бан/фильтр?

Ingref:
Тоже самое можно реализовать с помощью XML-карты (если цель - загнать страницы в индекс).

Спасибо за подсказку.

1 234
Всего: 34