- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
alexdosson, попробуйте поменять директиву Allow: / на Disallow: - они равнозначны
и проверьте ваш robots.txt в webmaster tools. Потом отпишитесь по результату.
P.s.: Disllow: без слеша !
Блин, не совсем... Я не понимаю, почему он написал, что сайт закрыт к индексации, ведь судя по тому, что я прочитал - это же не так...
Ваша директив также должна работать - это можно проверить воспользовавшись сервисом проверки robots.txt в Яндексе https://webmaster.yandex.ru/robots.xml Просто вставьте ваш домен и нажмите "Загрузить robots.txt с сайта" затем внизу добавьте URL любой страницы и увидите. Если покажет зеленым - значит страница разрешена для индексации. Если красным - значит запрещена и написано почему.
Но ваш robots.txt неудобен т.к. вы сразу директивой Allow: / разрешаете роботу индексировать все, а это неправильно. Есть еще куча служебных каталогов, файлы ядра и т..д., которые индексировать не нужно.
Вот мой robots.txt, первая директива Disallow без слэша, и поэтому не является запретительной. Но зато это дает мне возможность избирательно открывать необходимые для индексации каталоги директивой Allow
В итоге - не могу сказать точно почему не работает ваш вариант. Но ручаюсь на 100% что мой сработает. Т.к. я уже не один десяток сайтом выпустил с ним. Вы можете также убедиться в его работоспособности, если подставите этот вариант в ссылку приведенную выше. Плюс этого сервиса в стом, что не нужно каждый раз делать изменения в реальном файле robots.txt, просто меняя его на этой странице вы видите как будет "в реале" работать та или иная директива. А затем выбрав нужный вариант - пропишите его в файле.
P.S. Мой файл для сайтов на WP, соответственно у вас могут быть другие запрещенные и разрешенные каталоги. Но суть от этого не меняется.
alexdosson, попробуйте поменять директиву Allow: / на Disallow: - они равнозначны
и проверьте ваш robots.txt в webmaster tools. Потом отпишитесь по результату.
P.s.: Disllow: без слеша !
Хорошо спасибо
---------- Добавлено 30.08.2015 в 12:26 ----------
Ваша директив также должна работать - это можно проверить воспользовавшись сервисом проверки robots.txt в Яндексе https://webmaster.yandex.ru/robots.xml Просто вставьте ваш домен и нажмите "Загрузить robots.txt с сайта" затем внизу добавьте URL любой страницы и увидите. Если покажет зеленым - значит страница разрешена для индексации. Если красным - значит запрещена и написано почему.
Но ваш robots.txt неудобен т.к. вы сразу директивой Allow: / разрешаете роботу индексировать все, а это неправильно. Есть еще куча служебных каталогов, файлы ядра и т..д., которые индексировать не нужно.
Вот мой robots.txt, первая директива Disallow без слэша, и поэтому не является запретительной. Но зато это дает мне возможность избирательно открывать необходимые для индексации каталоги директивой Allow
В итоге - не могу сказать точно почему не работает ваш вариант. Но ручаюсь на 100% что мой сработает. Т.к. я уже не один десяток сайтом выпустил с ним. Вы можете также убедиться в его работоспособности, если подставите этот вариант в ссылку приведенную выше. Плюс этого сервиса в стом, что не нужно каждый раз делать изменения в реальном файле robots.txt, просто меняя его на этой странице вы видите как будет "в реале" работать та или иная директива. А затем выбрав нужный вариант - пропишите его в файле.
P.S. Мой файл для сайтов на WP, соответственно у вас могут быть другие запрещенные и разрешенные каталоги. Но суть от этого не меняется.
Спасибо, попробую тоже
alexdosson, попробуйте поменять директиву Allow: / на Disallow: - они равнозначны
и проверьте ваш robots.txt в webmaster tools. Потом отпишитесь по результату.
P.s.: Disllow: без слеша !
Отписываюсь. Ошибка до сих пор осталась в google webmaster tools..
---------- Добавлено 30.08.2015 в 23:50 ----------
Ваша директив также должна работать - это можно проверить воспользовавшись сервисом проверки robots.txt в Яндексе https://webmaster.yandex.ru/robots.xml Просто вставьте ваш домен и нажмите "Загрузить robots.txt с сайта" затем внизу добавьте URL любой страницы и увидите. Если покажет зеленым - значит страница разрешена для индексации. Если красным - значит запрещена и написано почему.
Но ваш robots.txt неудобен т.к. вы сразу директивой Allow: / разрешаете роботу индексировать все, а это неправильно. Есть еще куча служебных каталогов, файлы ядра и т..д., которые индексировать не нужно.
Вот мой robots.txt, первая директива Disallow без слэша, и поэтому не является запретительной. Но зато это дает мне возможность избирательно открывать необходимые для индексации каталоги директивой Allow
В итоге - не могу сказать точно почему не работает ваш вариант. Но ручаюсь на 100% что мой сработает. Т.к. я уже не один десяток сайтом выпустил с ним. Вы можете также убедиться в его работоспособности, если подставите этот вариант в ссылку приведенную выше. Плюс этого сервиса в стом, что не нужно каждый раз делать изменения в реальном файле robots.txt, просто меняя его на этой странице вы видите как будет "в реале" работать та или иная директива. А затем выбрав нужный вариант - пропишите его в файле.
P.S. Мой файл для сайтов на WP, соответственно у вас могут быть другие запрещенные и разрешенные каталоги. Но суть от этого не меняется.
У меня сайт на чистом HTML, но я поспользовался проверкой в yandex webmaster tools и показало зеленеькое. НО, в google webmaster tools ошибка до сих пор вылезает, не понимаю почему, хотя сайт в Гугле проиндексировался, а в Яндексе наоборот пока нет..
Ваша директив также должна работать - это можно проверить воспользовавшись сервисом проверки robots.txt в Яндексе https://webmaster.yandex.ru/robots.xml Просто вставьте ваш домен и нажмите "Загрузить robots.txt с сайта" затем внизу добавьте URL любой страницы и увидите. Если покажет зеленым - значит страница разрешена для индексации. Если красным - значит запрещена и написано почему.
Но ваш robots.txt неудобен т.к. вы сразу директивой Allow: / разрешаете роботу индексировать все, а это неправильно. Есть еще куча служебных каталогов, файлы ядра и т..д., которые индексировать не нужно.
Вот мой robots.txt, первая директива Disallow без слэша, и поэтому не является запретительной. Но зато это дает мне возможность избирательно открывать необходимые для индексации каталоги директивой Allow
В итоге - не могу сказать точно почему не работает ваш вариант. Но ручаюсь на 100% что мой сработает. Т.к. я уже не один десяток сайтом выпустил с ним. Вы можете также убедиться в его работоспособности, если подставите этот вариант в ссылку приведенную выше. Плюс этого сервиса в стом, что не нужно каждый раз делать изменения в реальном файле robots.txt, просто меняя его на этой странице вы видите как будет "в реале" работать та или иная директива. А затем выбрав нужный вариант - пропишите его в файле.
P.S. Мой файл для сайтов на WP, соответственно у вас могут быть другие запрещенные и разрешенные каталоги. Но суть от этого не меняется.
А можно узнать что означает
Disallow: /20*/*
Disallow: /page/*
Disallow: /spektr/
и почему мы запрещаем индексировать Disallow: */comment-page-* ?
Явно что то с Гугл вебмастером. Сейчас по многим своим сайтам аналогичные проблемы. Причем в закладке Посмотреть как Гуглбот - невозможно добавить страницы. Опять эти Гуглы что то замышляют...
Отписываюсь. Ошибка до сих пор осталась в google webmaster tools..
---------- Добавлено 30.08.2015 в 23:50 ----------
.
Иногда там не быстро происходит. У меня месяцами уменьшяются ошибки микроразметки после ее внедрения. Вы пользуйтесь инструментом проверки он есть и в Гугле.
---------- Добавлено 03.09.2015 в 10:11 ----------
А можно узнать что означает
Disallow: /20*/*
Disallow: /page/*
Disallow: /spektr/
и почему мы запрещаем индексировать Disallow: */comment-page-* ?
Я выложил robots по умолчанию. Там закрыты типовые служебные каталоги WP. У вас этот перечень может быть другим.
На одном своем html-ном сайте я также закрыл:
Важен принцип - закрывайте служебные каталоги, но помните, что в связи с мобильными версиями (если у вас адаптивный сайт) Гугл последнее время также требует доступа к файлам CSS и JS.
P.S. Яндекс индексирует по моим наблюдениям медленнее Гугла. Фактически это совпадает с апдейтами поисковой базы (раз прим. в 2 недели), и иногда он делает это по нескольку страниц (когда новых много) за один раз.
закроешь css или js от гугла он также начнет ругаться
закроешь css или js от гугла он также начнет ругаться
Да, именно об этом я и написал. Это касается адаптивных сайтов.