sok3535

Рейтинг
109
Регистрация
18.04.2011
Tarasoff:
Как правильно оформить текстовый файл для подачи disalow links? Порылся, нашел следующие требования?

1. формат записи - domain:spamdomain.ru
2. формат файла - UTF-8

Насколько это верно? Может еще какие-то условия есть?

остались только такие:

- если в файле есть кириллица он должен быть в формате utf-8 без бом - пуникод теперь распознается

- файл не должен содержать ошибок - пустых строк, лишних записей, аля даты и т.д и т.п. только урл или записи типа:

http://spam.example.com/stuff/comments.html

или

domain:example.com

- пробел в записи domain: example.com - теперь допустим - запись будет распознаваться

- лучше использовать записи типа domain:example.com т.к. у многих сайтов существуют дубли и ссылки с одного домена могут множиться в геометр прогрессии))

- каждая запись с новой строки

- последующая отправка отменяет предыдущую т.е. если будите отправлять файл несколько раз - то старый файл нужно обновлять/дополнять и затем отправлять

AdAstra:
Я именно про это и написал. Поэтому категории могут забанить, но главную не забанят, если на ней будут только ссылки на категории. Если будут ссылки на материал - могут забанить.

а если не будет ссылок ни на материал, ни на категории - что не забанят? :)

Ruson:
Вот где истина зарыта. чувствую это уже ближе. Да, использовал раньше total cache и была там такая функция, но позже я просто удалил этот плагин по некоторым обстоятельствам, не корректно работала медиа с ним и картинки не подгружались нормально. Чувствую что причина да, действительно в этом, но как мне теперь быть, плагин удалён а проблема осталась? Я даже пробовал его по новой поставить, включал отключал эту фишку но все остается неизменно!

И С Новым Годом!

он полностью, сам не удаляется, погугли так например

LaMamba:
Не думаю, что там вручную заносится каждая вакансия, как отдельная страница. Как можно определить точно, присутствуют там плалины или нет?

на каждой странице по 20 вакансий, плагинов нет, формы добавления вакансий нет

либо - разбивка по категориям с постами - в каждом посту по 20 вакансий, вбитых ручками или импортом

Ruson:
ДОбрый день, сегодня обнаружил множество ошибок валидности на одном из сайтов на вордпресс, при том что было 3 максимум 5 ошибок.

в total cache отключи Enable Google Page Speed dashboard widget и потом обнови Page Cache и Minify

LaMamba:
Спасибо, ух, как много)
Может кто скажет на вскидку, какой плагин используется на сайте в стартпосте.

без плагинов реализовано, просто на страницах

masterdela:
Это же означает что все урлы с / не индексируются... А как мне это должно помочь?

то что у вас в роботсе сейчас - запрещает полностью гуглботу сканировать сайт

---------- Добавлено 30.12.2013 в 12:18 ----------

я так понимаю по ссылке вам уйти лень и почитать почему так происходит

тогда просто измените роботс свой старый, который счас выглядит так

User-agent: Yandex
Disallow:
Crawl-delay: 10

User-agent: StackRambler
Disallow:
Crawl-delay: 10

User-agent: Google
Disallow:
Crawl-delay: 10

User-agent: *
Disallow: /

хотя бы на такой

User-agent: YandexBot
Disallow:
User-agent: StackRambler
Disallow:
User-agent: Googlebot
Disallow:
User-agent: *
Disallow: /
masterdela:
эмм.... спасибо. теперь осталось понять что с этим делать

очевидно - открыть сайт для сканирования :)

masterdela:
Здравствуйте, всех с наступающими праздниками!!! Дело вот в чем, просматривая сайты, я заметила что один из них по интересующим меня запросам не показывается в гугл. Страниц в индексе 1. Так что это Пингвин? Как его можно от туда достать? Сайт не сказала что очень качественный, маловато страниц и тд. Контент прошел на проверку уникальности 80%. Его историю я не знаю. Посмотрела по allposition что вплоть до июля месяца его и не было. Я человек новый, до меня занимался сайтом человек, но как я успела заметить без энтузиазма. Подскажите что делать, буду признательна.

в вашем роботсе для гугла работают только эти строки :)

User-agent: *

Disallow: /

почему именно они - можно тут например узнать или же проверить в вебмастере в пункте Заблокированные урл

Всего: 957