так как прописать? зналбы как, сюда бы и не обратился..
закинул, но походу не работает ( может виноват хостинг.
пробовал и так и сяк
<IfModule mod_headers.c> Header set X-Robots-Tag "noindex, nofollow, noarchive" <FilesMatch "\.(png|jpe?g|gif)$"> Header set X-Robots-Tag "noindex, noarchive, nosnippet" </FilesMatch> </IfModule>
ну у меня есть неуникальные картинки, в них дописываю /wp-content/uploads/noindex_nameimage.jpg
хочу скрывать их от Гугла, чтобы потом ко мне не стучались правообладатели.. да и сразу скрыть маленькие в которых размер 120x60---------- Добавлено 19.11.2012 в 18:06 ----------нашел такую конструкцию
/images/product41-thumbnail.jpg
<FilesMatch "images/.+-thumbnail\.jpg$"> Header set X-Robots-Tag "noindex" </FilesMatch>
но как мне прописать тут
/wp-content/uploads/2012/10/workplace-antonblog-2-120x60.jpg
<FilesMatch "wp-content/uploads/****/**/.+-120x60\.(png|jpe?g|gif)$"> Header set X-Robots-Tag "noindex" </FilesMatch>
подскажите как, не разбираюсь я в таком (
в лайт версии страницы закрытые в роботсе не отображались, зачем в этой версии они отображаются?
можете сделать кнопку которая скроет их? ну очень неудобно блин (
как избавится от страниц закрытых в роботс? они мешают нормально просматривать результат!!
разочарован Page Weight Desktop,
старая Лайт нормально понимала User-agent: pageweight
эта не в какую не слушается.. к примеру http://wlad2.ru/robots.txt
- почему в тайтлах страниц показываются анкоры которые на нее ссылаются? что за бред..
- зачем было менять интерфейс? этот убогий до ужаса.
ddvhouse,
В самой программе есть эти подписи! =)
не пишите от большинства
Что-бы взять тематику к примеру женских сайтов, там 20к всего в лучшем случае будет, с этим программа и справляется!
да
des7,
можно запустить прогу 10 и более раз подряд и забить ваши домены частями
по поводу скорости есть такой вот отзыв
ребят у всех так или только у меня?
часто обращаются проанализировать сайт, но доступа к robots.txt у меня нет.
можно ли в будущем сделать список robots.txt прям в программе??
что-то в новой версии вообще не хочет понимать robots.txt
взял и спарсил ваш сайт http://www.page-weight.ru/robots.txt
В результате тупо игнорируется
___
по моим сайтам вообще не хочет слушать правило с User-agent: pageweight