- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В http://www.auditmypc.com/xml-sitemap.asp можно посавить галочку "Respect robots.txt" и одельно вручную задать фильтры на невключение определенных страниц.
robots.txt уважать данный сервис отказывается, хотя чекеры и яндекса и гугла отлично этот роботс.тхт понимают.
ребята, так чем же (желательно десктопным) можно сгенерить сайтмап с учетом роботс.тхт для большого сайта?
апну топик. вот уже три месяца прошло, а никак толковый софт не могу найти, чтобы сделать хороший сайтмэп, который бы robots.txt понимал. страниц всего около 200к, но разрешено к индексации порядка 40к. может что-нибудь новое появилось из софта?
апну топик. вот уже три месяца прошло, а никак толковый софт не могу найти, чтобы сделать хороший сайтмэп, который бы robots.txt понимал. страниц всего около 200к, но разрешено к индексации порядка 40к. может что-нибудь новое появилось из софта?
Вообще помойму здесь можно создавать себе без лишних проблем сайтмэп, + здесь есть возможноть понимания robots.txt вашего сайта.
На собственном.
Первый сервис нормально делает карту, только его лимита не хватает
Самому западло чтоль генерить?
Вообще помойму здесь можно создавать себе без лишних проблем сайтмэп, + здесь есть возможноть понимания robots.txt вашего сайта.
схавал страницы, которые запрещены для индексации в robots.txt, несмотря на проставленные галочки в нужном месте.
схавал страницы, которые запрещены для индексации в robots.txt, несмотря на проставленные галочки в нужном месте.
Ну не знаю, у меня все было верным, и robots был учтен.
схавал страницы, которые запрещены для индексации в robots.txt, несмотря на проставленные галочки в нужном месте.
Покажите свой сайт, посмотрим.
Не должен он хватать то что роботом закрыто.
Он долго будет делать карту для сайта 40-50к страниц? Я с такими сервисами впервые сталкиваюсь как и с созданием карты в принципе, поэтому не знаю даже примерных временных рамок. Жду уже порядка 30 минут - страница все грузится.
Интересно, с каких пор уже в моде покупать простенькие программы???
Может кому надо
CoffeeCup Google SiteMapper 4.5 Retail
Полностью работоспособная версия, удалю на хосте через неделю, а пока берём.:)
Кому будет интересно, моя тема: Создам Sitemap для Вашего сайта бесплатно