остались только такие:
- если в файле есть кириллица он должен быть в формате utf-8 без бом - пуникод теперь распознается
- файл не должен содержать ошибок - пустых строк, лишних записей, аля даты и т.д и т.п. только урл или записи типа:
http://spam.example.com/stuff/comments.html
или
domain:example.com
- пробел в записи domain: example.com - теперь допустим - запись будет распознаваться
- лучше использовать записи типа domain:example.com т.к. у многих сайтов существуют дубли и ссылки с одного домена могут множиться в геометр прогрессии))
- каждая запись с новой строки
- последующая отправка отменяет предыдущую т.е. если будите отправлять файл несколько раз - то старый файл нужно обновлять/дополнять и затем отправлять
а если не будет ссылок ни на материал, ни на категории - что не забанят? :)
он полностью, сам не удаляется, погугли так например
на каждой странице по 20 вакансий, плагинов нет, формы добавления вакансий нет
либо - разбивка по категориям с постами - в каждом посту по 20 вакансий, вбитых ручками или импортом
в total cache отключи Enable Google Page Speed dashboard widget и потом обнови Page Cache и Minify
без плагинов реализовано, просто на страницах
бесплатные и платные
то что у вас в роботсе сейчас - запрещает полностью гуглботу сканировать сайт---------- Добавлено 30.12.2013 в 12:18 ----------я так понимаю по ссылке вам уйти лень и почитать почему так происходит
тогда просто измените роботс свой старый, который счас выглядит так
User-agent: YandexDisallow:Crawl-delay: 10User-agent: StackRamblerDisallow:Crawl-delay: 10User-agent: GoogleDisallow:Crawl-delay: 10User-agent: *Disallow: /
хотя бы на такой
User-agent: YandexBotDisallow:User-agent: StackRamblerDisallow:User-agent: GooglebotDisallow:User-agent: *Disallow: /
очевидно - открыть сайт для сканирования :)
в вашем роботсе для гугла работают только эти строки :)
User-agent: * Disallow: /
почему именно они - можно тут например узнать или же проверить в вебмастере в пункте Заблокированные урл