And-rey

Рейтинг
78
Регистрация
01.04.2012
...Захожу в "инструмент проверки robots.txt, там "Ошибок: 0 Предупреждений: 0". Что это за дела такие?

) так тож инструмент для проверки правильности составления самого файла роботс.тхт

...папка templates запрещена.

- откройте доступ через "Allow:" в этом каталоге, где у него пути шаблона к стилям и скриптам.

Для Гугла надо обязательно открывать все каталоги, откуда подтягиваются скрипты и стили, для отображения страниц.

К примеру у меня была проблема из-за индексации страниц с товаром (сама карточка). Оказалось гугл не мог вытащить скрипт "звёздочки-оценки", капчу (отзыв когда написать) Капчу вот по этому адресу: /index.php?route=product/product/captcha&rand=7821 которая там находится на странице. А в роботсе стоит запрет на все вариации с этим "index.php".

Вот он встерчал запрет, и не индексировал как надо страницу. Как-то через что-ли. Замечено было в начале января этого года!

И вообще, тут на форуме не раз поднимались проблемы с этим роботс.тхт для гугла: он не получает доступ к страницам запрещённым, но всё одно их тащит в свой индекс пачками! И пишет потом в выдаче где дискрипшн - страница недоступна из-за файла роботс

Поэтому дубли, пагинации, сортировки, нужно блочить для гугла только тегом <meta name="robots" content="noindex, nofollow" />

или заголовком от сервера - X-Robots-Tag: noindex,nofollow (через .htaccess или php)

А вот для Яндекса пагинации, сортировки, дубли - всё запрещать в роботс.тхт

Так многие ведь ищут в Яндексе, а это и есть уже регион нужный вам =) А вообще-то трафик у Вас слабоватый, может уже все и наелись тортов, или не сезон (шучу, "торты на заказ" - 106445 запросов в мес.)

Дело в том, что под Гугл надо иначе "подстраиваться", дабы ему понравиться. Нужен полный сеоанализ сайта, несмотря на высокие позиции в Яндексе, если так всё плохо как на скрине вашем!

Там совсем другая атмосфера, мы сами имеем проект, у которого проблемы в Гугл, а в Яндексе только полюсы.

К примеру, скорость загрузки сайта тормозит установленный "онлайн консультант" от livetex.ru. Кое-что есть в "Console" браузера, что-то много ошибок в виде "chrome-extension://fjhoaacokmgbjemoflkofnenfaiekifl/cast_sender.js Failed to load resource" Хотя, подобное у многих есть, и не думаю что влияет на продвижение. По сути мелочи, но всё же...

Чувствую Вы там и в Яндексе на днях начнёте падать. Как давно был у вас на сайте создан robots.txt? Судя по мусору (страницы пагинации и всякие "index.php"), который в индексе яндекса есть, то недавно - https://goo.gl/yTrdSo

Кроме дублей страниц, еще есть с десяток глобальных проблем, из-за которых ухудшается индексация, поэтому сайт ваш нуждается в сеоанализе полном.

aldous, благодарю за ответ!

Позиции сайта очень плохие, поэтому начинаешь "цепляться" до всяких мелочей, анализировать всё на свете, что качается гугла. С Яндексом проблем нет.

Вот к примеру обновлённые данные сегодня из GWT - "Ссылки на ваш сайт: Всего ссылок 11 150" Т.е. уже больше, что-то растёт, но и до куда это будет продолжаться? Кароче под наблюдением.

А сам ресурс проблемный - ИМ, в котором подолгу не было описаний текстовых на товары, а ниша конкурентная. Только как второй месяц взялись сейчас за описания, отзывы и так далее.

Понятно, благодарю за ответы, мнения.

Но есть что добавить.

Почитав далее.. ещё информацию о том самом "Disavow Tool" в инете, оказалось что -

1. Максимального эффекта его "срабатывания" можно увидеть только с выходом обновления Google Penguin. Неизвестно, как этот инструмент работает с 2016 года, но до этого он жёстко привязан к апдэйтам Пингвина.

2. Потом еще момент - когда загружается второй, третий файл с данными о спам-доменах, то первый, который был, - он аннулировается! Поверх него типа записывается последний добавленный список, и все упомянутые домены из первого списка теряются. У многих потом опять появились сведения о плохих ссылках, чуть ли более полугодичной давности. Поэтому нужно добавлять в первый файл новые записи, и уже удлинённый перечень загружать в Disavow Tool.

3. Самое неприятное: пока в инете будут "физически" существовать ссылки с плохих доменов, так и будет в GWT поступать сообщения.. хоть целый год. Соответственно диагноз "Спамный ссылочный профиль" останется актуальным, на продвигаемый сайт. Момент "..написать админу спамного сайта снять ссылку на вас" - не в счёт, речь идёт о проблемных, которые даже хостер не всегда поможет удалить вместе со всем ГС-сателитами/дорвеями.

По просьбе "не учитывать" - пойдёт на встречу только Яндекс, так как там обрабатывают корреспонденцию (платоны). А с Гуглом "жопа", которую многие решают перевесом белой ссылочной массы и контентом, но это уже затраты 80LVL в плане времени и финансов. Зато всё-таки выход! =))

Maxim-KL:
...4-5 комментов на 1,5к уника будет достаточно что бы страничка попала в индекс и не вылетала с него (но многое еще зависит от самого сайта как вы понимаете).

1. А если комменты от Дискуса или соцплагинов ВК,FB (виджет комментов) - такое не пройдёт? (подгружаются аяксом и скриптами)

2. Отзывы и комменты - для поисковика одно и тоже?

3. Те самые комменты допустимы ли во вкладке "табах", или они желательны на первой "активной/открытой/видимой" вкладке?

Keal, много читал про этот Disavow, но пропустил тот момент, что когда есть информация о появившемся большом количестве ссылок... еще должно прийти сообщение о мерах принятых в ручную?

Пока нет ничего из подобного, а только это висит: "В отношении этого сайта вручную не принимались меры по борьбе с веб-спамом."

Немного не понять. Если нет мер, заначит и фиг с ними с этим количеством ссылок на сайт? )

)) У вас просто заголовок темы интересный, и тем кто "в танке", то немного напоминает актуальную в одно время тему в разделе Яндекс - /ru/forum/895130

А продвижение по гуглу, как там "раскрутиться" - про это всё и прочее, есть смысл рыть блоги в инете. Потом в случаи проблем сюда заглядывать.)

)) и это радует. осталось закрепить возвращение, анализом позиций спустя 3 суток снова.

Рекомендую в случаи неожиданных скачков в ТОП, или же не дай бог падений позиций, сразу мониторить ниже перечисленные сервисы, демонстрирующие изменения в "мозгах Гугла":

http://mozcast.com/

https://algoroo.com/

https://moz.com/google-algorithm-change

Выходящие обновления, на тех сервисах кто-то там регистрируют.. но кто как. И это всё неофициальные сайты и блоги, регистрирующие у себя новшества в гугле - это следует всегда учитывать.

Странно. Ведь на том промуа, всяческое продвижение платное - http://prom.ua/how_to_order

А те кто бесплатно "висят" у них - не даёт тот сервис таким площадкам "прокачки" дополнительной. Я правильно понял?

п.с. ТС задал вопрос явно не в ту ветку форума...

Всего: 439