- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайту в подписи месяц. тИЦ уже 50.
Rambler проиндексировал его весь. Google - как минимум заглавные страницы разделов. А Яндекс содержательные страницы в упор не видит. Как висели в его индексе заглавная и две картинки - так и висят.
В динамических адресах не больше двух параметров, а для заглавных страниц разделов - по одному. Баннер хостера сверху - конечно, плохо, но страниц с h15.ru в индексе Яндекса 30000 с гаком - значит, это не мешает.
По совету добрых людей в корень положен пустой robots.txt, хотя проверял специально другие проиндексированные сайты с того же хостинга - на многих роботсом и не пахнет.
Что же еще такое сделать? Может руками вбить страницы через AddURL, пока их всего 50?
rutman, уже много раз обсуждалось. Проверьте код отдаваемый роботу - если он отличен от 200, то причина в настройках вашего сервера.
В том-то и дело, что все, что мне советовали, я уже проделал. Код, отдаваемый роботу, 200 как по всем страницам, так и по robots.txt.
rutman, тогда попробуйте добавить несколько внутренних вручную. Если через неделю они не появятся, то пишите в Яндекс.
aka352, вообще через неделю может и не появиться... кубок ведь...
Content-Type: text/html; charset=koi8-r
<!DOCTYPE HTML PUBLIC -//IETF//DTD HTML//EN><html><head><meta http-equiv=Content-Type content=text/html; charset=windows-1251>
Я бы посоветовал обратить внимание на http://validator.w3.org/
Первый раз вижу, чтобы всеядный валидатор прервал обработку на 22-м символе документа... Обратите внимание на то, что аттрибуты должны быть в кавычках.
1) Разберитесь с кодировкой, которую отдает сервер
2) <!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01//EN" "http://www.w3.org/TR/html4/strict.dtd"><html lang="ru"><head><meta http-equiv="Content-Type" content="text/html; charset=Windows-1251">
rutman, уже много раз обсуждалось. Проверьте код отдаваемый роботу - если он отличен от 200, то причина в настройках вашего сервера.
А как проверить, какой код отдает роботу?
А как проверить, какой код отдает роботу?
Например, так: http://www.searchengineworld.com/cgi-bin/servercheck.cgi
Код, который отдан роботу, видно в лог-файле.
Если я начну писать аттрибуты в кавычках на ПХП, я свихнусь на отладке ошибок.
Валидатор все мои страницы без исключения прерывает на этом месте, но другие сайты нормально индексируются. Правда, не на этом хостинге.
Но за подсказку спасибо. Действительно в заголовке koi-8, хотя сайт на win-1251. Может, дело в этом.
А кодировку не изменить никаким каком. Даже если прописать в header - все равно откуда-то вылезает koi-8.