- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте! Вообщем ситуация такая...Гугл ни в какую не хочет индексить сайт...Сайту почти 2 месяца, уже 120 бэков, рекламы на сайте нет. Хотя яндекс индексирует на ура.
В вебмастере такая штука происходит. При переходе на Инструменты для веб-мастеров ->Конфигурация сайта ->Доступ для сканера, пишет "Разрешено, Распознается в качестве каталога; у некоторых файлов могут быть другие ограничения"
Может быть из-за этого сайт не индексируется??? Сайт http://textominus.ru/
Объяснил, как мог...Всем спасибо!
Это что-то новенькое... кто шарит?
Это что-то новенькое... кто шарит?
Вот-вот...Гуглил по этой теме но ничего путного не нашел, поэтому обращаюсь сюда.
Дык сайт в индексе: морда даже за 28-е число есть в кэше, 750 страниц вошло в индекс.
Сколько всего страниц должно войти в индекс?
Дык сайт в индексе: морда даже за 28-е число есть в кэше, 750 страниц вошло в индекс.
Сколько всего страниц должно войти в индекс?
Все до единой страницы под фильтрами...Сайт-то проиндексировался, но практически все сираницы под фильтром.
Все до единой страницы под фильтрами...Сайт-то проиндексировался, но практически все сираницы под фильтром.
Вы бы подробнее рассказали что за фильтры. В стартпосте ни буквы про фильтры.
ЗЫ: сираницы крутое слово))
1. Robots.txt
1.1 Для какой цели вы указали разные правила в robots для яндекса и других поисковиков?
1.2. Host: должен стоять внизу, сейчас хост только для яндекса.
1.2.3. Домен у вас textominus.ru, а в роботос указан www.textominus.ru Определитесь.
1.3. Зачем две ссылки на одинаковые карты?
2. Не уникальный контент.
3. В поиске много дублей. Не закрыты /page/ , тэги, архивы, пользователи и т.п.
1. Robots.txt
1.1 Для какой цели вы указали разные правила в robots для яндекса и других поисковиков?
1.2. Host: должен стоять внизу, сейчас хост только для яндекса.
1.2.3. Домен у вас textominus.ru, а в роботос указан www.textominus.ru Определитесь.
1.3. Зачем две ссылки на одинаковые карты?
2. Не уникальный контент.
3. В поиске много дублей. Не закрыты /page/ , тэги, архивы, пользователи и т.п.
Роботс полностью скопирован с другого сайта, на котором с индесацией всё нормально...Так что тут не в нем дело...
Тэги и архивы специально не закрыты...
Гуглил: "Распознается в качестве каталога; у некоторых файлов могут быть другие ограничения" наткнулся на эту страницу.....
у меня такая же фраза выдается.
http://xrush-for.ru
ресурсу 2 месяца с хвостиком
в нахождении под фильтром себя не наблюдал