- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый.. )
Создал вот такой robots.txt
Думал что в поиске у Я и G останутся только нужные страницы, но почему то яндекс скушал "весь" форум :(
В чем ошибка - кажется все написано по правилам
Или нужно было закрыть все, а указать открытыми только нужные три типа страниц: главная index, раздел *board и топик *topic ???
Ужос какой. Сначала надо отрубить сессии.
Ужос какой. Сначала надо отрубить сессии.
погуглю немного, но на прошлой недели, как попытался занятся этим вопросом не нашел нужной инфы.
А что касается роботс, что скажите?
php_value session.use_only_cookies 1
php_value session.use_trans_sid 0
http://help.yandex.ru/webmaster/?id=996567
но почему то яндекс скушал "весь" форум
Не весь. В индексе есть страницы. Но когда нажимаю на сохранёнку выдаётся такое:
http://hghltd.yandex.net/yandbtm?qtree=wHnQA4uFf1HC%2Fb8U%2BiNJW8so1t8Iid9oA9j5Ictg4AG7GRqN9%2Fs9MbUMvaXyjw2vNiS7VS1ETSy3ZIsg1O%2BYBfu1JhYhXYVVLXt7D710B2%2F1o%2Banpvt5UfDYYjcavBLNIYM8ZKqpr2KmGo4Z97eD%2B5QRoU6BkGEF%2FD4ErhAZuZivFrx113bYWlb157MwDE9HCYMT7ZcFkkl5r%2FbvpwisbF5oxNFJcxNJEga%2FhXldPNEZKpisH0ty4RdOYH8gG88igEsxE0Fabpc%3D&text=rhost%3D%22ua.com.satkiev.*%22%7Crhost%3D%22ua.com.satkiev.www.*%22&url=http%3A%2F%2Fwww.satkiev.com.ua%2Fforum%2Findex.php%3Fboard%3D1.0%3Bwap2
Вместо: http://www.satkiev.com.ua/forum/index.php?board=1.0;wap2
Профили, статистика видны: http://hghltd.yandex.net/yandbtm?qtree=wHnQA4uFf1HC%2Fb8U%2BiNJW8so1t8Iid9oA9j5Ictg4AG7GRqN9%2Fs9MbUMvaXyjw2vNiS7VS1ETSy3ZIsg1O%2BYBfu1JhYhXYVVLXt7D710B2%2F1o%2Banpvt5UfDYYjcavBLNIYM8ZKqpr2KmGo4Z97eD%2B5QRoU6BkGEF%2FD4ErhAZuZivFrx113bYWlb157MwDE9HCYMT7ZcFkkl5r%2FbvpwisbF5oxNFJcxNJEga%2FhXldPNEZKpisH0ty4RdOYH8gG88igEsxE0Fabpc%3D&text=rhost%3D%22ua.com.satkiev.*%22%7Crhost%3D%22ua.com.satkiev.www.*%22&url=http%3A%2F%2Fwww.satkiev.com.ua%2Fforum%2Findex.php%3Faction%3Dprofile%3Bu%3D16%3Barea%3Dshowposts%3Bsa%3Dattach%3Bsort%3Dfilename
http://yandex.ru/yandsearch?p=14&pag=u&surl=satkiev.com.ua&4898e6ddeb0ee8d3f64b246feb8b4555=&text=rhost%3D%22ua.com.satkiev.*%22%7Crhost%3D%22ua.com.satkiev.www.*%22&lr=1
Перед добавкой роботса на сайт, его нужно тут проверять: http://webmaster.yandex.ru/robots.xml
Перед добавкой роботса на сайт, его нужно тут проверять: http://webmaster.yandex.ru/robots.xml
ошибок вроде не выдает.. просто показывает тот абзац, который относится к Яндексу, без каких-либо комментариев.
Может стоит поставить полностью недоступность всех страниц форума, кроме: главной *index, раздел *board и топика *topic
Не подскажите как правильно прописать это в роботс.
Так как верхний пример моего роботс писал по указанием в хелпе яндекса, но почему-то робот всеравно сканирует страницы..
Заранее спасибо.
ошибок вроде не выдает.. просто показывает тот абзац, который относится к Яндексу, без каких-либо комментариев.
А головой подумать? Добавляете список урлов которые вам нужно чтобы проиндексировались и те которые нужно запретить сюда: Список URL добавить. Нажимаете Проверить и смотрите на результат.
но почему-то робот всеравно сканирует страницы..
Так вам нужно, чтобы он сканировал или не сканировал? То жалуетесь на одно, то на другое.