- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
1. когда я хочу проверить в панели вебмастера, правильно ли я закрыл страницы, мне выдает "не удалось загрузить robots.txt". Не знаю, о чем это говорит: файл неверно составлен или он превышает максимально допустимый размер (файл действительно большой очень - 241 строка)
2. "этот урл не принадлежит вашему домену" - говорят мне, когда я вручную загружаю роботс и проверяю определенные страницы. Интерес в том, что раньше сайт был настроен редиректами как site.ru, спустя некоторое время поменяли на www.site.ru, но в панели вебмастера он все еще без www. И когда проверяешь страницу с www, возникает такая фраза.
Есть о чем беспокоиться, или со временем переиндексируется?
3. Загрузил я файл sitemap. После проверки выяснилось, что он содержит 0 ссылок и 100 замечаний. Вроде бы все верно в файле, на мой взгляд.
http://www.ipetersburg.ru/sitemap.xml - где тут может ошибка крыться?
1. когда я хочу проверить в панели вебмастера, правильно ли я закрыл страницы, мне выдает "не удалось загрузить robots.txt". Не знаю, о чем это говорит: файл неверно составлен или он превышает максимально допустимый размер (файл действительно большой очень - 241 строка)
Что 1 пришло мне в голову, неправильные права на файл.
Файл в браузере открывается? АФАЙР, Яндекс читает robots.txt до 32КБ.
2. "этот урл не принадлежит вашему домену" - говорят мне, когда я вручную загружаю роботс и проверяю определенные страницы. Интерес в том, что раньше сайт был настроен редиректами как site.ru, спустя некоторое время поменяли на www.site.ru, но в панели вебмастера он все еще без www. И когда проверяешь страницу с www, возникает такая фраза.
Есть о чем беспокоиться, или со временем переиндексируется?
Врядли это являетяс поводом для беспокойства. Видимо у них стоит обработчик, который запрещает загрузку/индексирование файлов с домена (неглавного зеркала).
3. Загрузил я файл sitemap. После проверки выяснилось, что он содержит 0 ссылок и 100 замечаний. Вроде бы все верно в файле, на мой взгляд.
http://www.ipetersburg.ru/sitemap.xml - где тут может ошибка крыться?
Видимо глюк.
Что 1 пришло мне в голову, неправильные права на файл.
Файл в браузере открывается? АФАЙР, Яндекс читает robots.txt до 32КБ.
Весит 10 килобайт и открывается в барузере.
Вместо:
<loc>http://www.ipetersburg.ru/articles/</loc>
<priority>.5</priority>
<changefreq>weekly</changefreq>
Попробуйте:
<loc>http://www.ipetersburg.ru/articles/</loc>
<priority>.5</priority>
<changefreq>weekly</changefreq>
</url>
Насчёт домена. Лучше удалить и заново добавить как надо.
Ссылку на карту лучше после хост ставить. А вообще поскольку хост понимает только яндекс, для него сделать отдельный блок и там хост написать, а карту оставить там где сейчас.
когда я хочу проверить в панели вебмастера, правильно ли я закрыл страницы, мне выдает "не удалось загрузить robots.txt".
Только если без www смотреть. С www - нормально считывает.
Да уж роботс тхт улыбнул
http://www.ipetersburg.ru/robots.txt
Disallow: /search
...
...
...
Disallow: /?pageNum=1
...
...
...
На серче обсуждается запрет серча на серч :D
Str256, спасибо, сейчас перепишем sitemap и роботс.
vetervoda, ну да, там в каждом разделе используется фильтрация, которая генерирует бешеный урл с практически тем же контентом. Яндекс такие вещи ест на ура, поэтому, подстраховались.