Winddancer

Рейтинг
19
Регистрация
13.12.2015
Веду собственный сайт по SEO по адресу http://smp.pp.ua
variants:
Подскажите насколько критично отсутствие ссылки sitemap в robots.txt?
Дело в том что sitemap который генерировал Opencart, Яндекс не принимал, поставил модуль который генерирует sitemap которой принимает яндекс. В итоге яндексу скормил один sitemap, а гуглу другой.
По рекомендации указал оба файла sitemap в robots.txt.
После обновления яндексВебмастера он начал ругаться на sitemap, найденный в robots.txt
как то так:http://floomby.ru/s2/fgnjKH

Вот думаю может просто убрать ссылки на sitemap из роботс???

Действительно лучше всего вручную указывать файл роботса для ПС.

А по сути можете как оставить ссылки, так и убрать их (или же сгенерить собственный сайтмапс, который будет с грамотным синтаксисом).

Truelove:
Посмотрел что есть 3 решения проблемы их больше, но каноникал тупо на первую страницу не считаю хорошей идеей. View all страница тоже отпадает товаров оч. много в категории.
Какой из вариантов по вашему мнению лучший:
1) Вы делаете rel="next" и rel="prev" + каноникал сам на себя.
2) <meta name="robots" content="noindex, follow" /> + каноникал сам на себя.
3) <meta name="robots" content="noindex, follow" /> + Уникализировать на всех страницах мета данные + rel="next" и rel="prev"
4) Уникализировать на всех страницах мета данные + rel="next" и rel="prev"
5) Гибрид их этих вариантов: просто <meta name="robots" content="noindex, follow" /> или просто изменить мата данные.
Очень жду подсказки от тех кто уже сталкивался с данной проблемой.
За ранее благодарен.

Мы обычно закрываем в файле Robots.txt пагинацию по следующей причине...

Когда контент уходит на вторую страницу - он переходит в виде дубля с первой. Т.е. информация дублируется не смотря на то, что заголовки разные.

В интернете множество примеров сокрытия пагинации, в том числе Disallow: ?p=* (в зависимости от конструкции, которую Вы применяете).

В ином случае конструкция noindex, follow будет правильной без каноникала (зачем он здесь?) и заголовками "страница 1, 2, 3".

burunduk в принципе правильно сказал.

Да, помогает.

А зачем закрывать?

Даже если на сайте указан регион, это не запрещает продвигаться даже и под разные страны.

sinvalin:
Уважаемые! Помогите, пожалуйста, разобраться в вопросе.
Сайт по изготовлению лестниц (в Яндексе чувствует себя вполне хорошо, занимает топ по ключевым фразам), но позиции по Гуглу оставляют желать лучшего: какие-то запросы в топ-50, каких-то даже нет в топ-100. Никаких санкций не наложено, никаких дубликатов нет (проверка в Google Console). По внешним ссылкам: только каталоги, форумы (все очень аккуратно с анкор-листом - преимущественно естественные). На сайте выложена вся информация по коммерческой составляющей, разработан калькулятор по подсчету стоимости готовой лестницы. Также месяца 3 назад были проведены следующие работы:
- оптимизация кода сайта через инструмент Гугла - https://developers.google.com/speed/pagespeed/insights/, чтобы добиться быстрой скорости загрузки;
- валидация кода и верстки по стандартам w3c;
- переход на HTTPS версию сайта (на защищенный протокол);
- разметка контента каждой страницы по schema.org;
- постоянное написание статей, обновление контента (минимум 5 статей в месяц);
- добавление в каждую статью полезной информации оптимизированного изображения;
- добавление description для каждой страницы, а не только для продвигаемых;
- наличие видеороликов по производству лестниц;
- добавление компании в Google Мой бизнес;
- чистка ссылочного профиля (избавление от покупных ссылок, в том числе, и вечных).

Но никакого особого движения по позициям не было зафиксировано.
Подскажите, пожалуйста, что мы еще не учли в своей работе!

Может быть возраст сайта, в том числе чистка ссылок отрицательно могла повлиять...не пошло в минус, но и не продолжило расти (Гугл на ссылках держится)

А страницы, которые ранее были написаны обновляются?

jj1981ua:
Роботс недавно изменил. Он как раз и был - верхняя + 2 нижние. Как в вебмастере увидел - решил не придумывать велосипед и скопировал с роботса анологичного проекта. Ошибка еще держится(

Уважаемый. У гугла (прямо таки в Searh Console) есть прекрасный сервис с проверкой доступности страниц по robots.txt

Вбиваете ссылку и оно показывает правило, которое срабатывает и запрещает просматривать. После этого правите сам файл и отправляет гуглу новую версию с последующим обновлением странички консоли.

kcusha:
При переходе по урлам страницы 404 Not Found. Я просто не знаю, что еще можно от хостера потребовать. Вроде должны страницы выпасть, если 404 сервер отдает. Тут написали, что месяц ждать. Ну если уж совсем никак, придется на авторские права жаловаться, хотя, владелец домена с копией моего сайта, вообще не причем, скорее всего.

От криворукости хостера никто не застрахован)))

borisd:
Предполагаю, что они только у вас в топе, если вы выдачу смотрите просто через браузер (не в безопасном режиме). Гугл обычно подстраивает выдачу под конкретного пользователя.

Он подстраивает, но не на столько, чтобы одному человеку показывать сайт из позиции топ100 в позиции топ1.

Все может быть с разбросом в несколько позиций. В остальных случаях отображение релевантно даже и для персонализированного показа.

kcusha:
Дело в том, что это не мой домен. Доступа к нему я не имею.
Но на этом домене, полностью мой сайт оказался, притом вносила изменения на свой сайт и они и на том сразу появлялись.

Я так понимаю, что этот сайт расположен на том же сервере, у того же хостера.
Написала хостеру, они исправили.

Удаляла страницы через вебмастер, они сначала вроде удалились, а потом опять появились.
Только ждать осталось или что-то еще можно сделать? Попробую еще с владельцем домена связаться, думаю тут злого умысла не было, скорее хостер накосячил.

Если сайт физически работает и можно пройти по урлу - хостеры значит не до конца все исправили.

В ином случае воспользуйтесь репортом.

https://www.google.com/webmasters/tools/dmca-notice?hl=ru

Сюда указываете типа причину нарушения "авторского права" на базе ошибки системы хостинга или как-то объясняете, почему гугл должен будет удалить материалы.

Record:
Здравствуйте.Все остальные ключевые слова в Топ 20-30 .Конкуренция я так понял очень большая Трафика на сайте почти нет 20-30 человек в день максимум.Что посоветуете делать?

Основные правла интернет-маркетинга (ну примерно):

1. Все, что ниже топ 3 - почти не посещается;

2. Если информации в топ 3 нет - посещается то, что ниже

3. Если title и description не привлекательны - CTR будет низким.

4. Если страница оптимизирована не под ключ из сем. ядра - переходов не будет.

Ну и плюс можно продолжать долго и скучно.

kcusha:
Как долго ждать удаления страниц из индекса гугл, если сервер возвращает 404 для этих страниц? Недели 2-ве уже прошло, но страницы не удалились. Из яндекса быстро удалились. Из гугла никак не получается.

Подайте на реиндексацию страницу "посмотреть как гуглбот", удалите из карты сайта и ждите.

Если не помогает вот ссылочка на удалялку (+ помощь)

https://support.google.com/websearch/troubleshooter/3111061?hl=ru&visit_id=1-636099909691183399-2587325844&rd=1

Всего: 77