wlad2

wlad2
Рейтинг
153
Регистрация
17.07.2008
Интересы
seo, монетизация, манимейкинг, верстка
Двигаю сайты в Топ, слушаю крутой Хип-хоп
1. Указать точный адрес к нужной директории

так как прописать? зналбы как, сюда бы и не обратился..

2. Закинуть htaccess в нужную директорию.

закинул, но походу не работает ( может виноват хостинг.

пробовал и так и сяк

<IfModule mod_headers.c>

Header set X-Robots-Tag "noindex, nofollow, noarchive"
<FilesMatch "\.(png|jpe?g|gif)$">
Header set X-Robots-Tag "noindex, noarchive, nosnippet"
</FilesMatch>
</IfModule>
И что вас в них смущает? 120x60

ну у меня есть неуникальные картинки, в них дописываю /wp-content/uploads/noindex_nameimage.jpg

хочу скрывать их от Гугла, чтобы потом ко мне не стучались правообладатели.. да и сразу скрыть маленькие в которых размер 120x60

---------- Добавлено 19.11.2012 в 18:06 ----------

нашел такую конструкцию

/images/product41-thumbnail.jpg

<FilesMatch "images/.+-thumbnail\.jpg$">

Header set X-Robots-Tag "noindex"
</FilesMatch>

но как мне прописать тут

/wp-content/uploads/2012/10/workplace-antonblog-2-120x60.jpg

<FilesMatch "wp-content/uploads/****/**/.+-120x60\.(png|jpe?g|gif)$">

Header set X-Robots-Tag "noindex"
</FilesMatch>

подскажите как, не разбираюсь я в таком (

в лайт версии страницы закрытые в роботсе не отображались, зачем в этой версии они отображаются?

можете сделать кнопку которая скроет их? ну очень неудобно блин (

как избавится от страниц закрытых в роботс? они мешают нормально просматривать результат!!

png 116418.png

разочарован Page Weight Desktop,

старая Лайт нормально понимала User-agent: pageweight

эта не в какую не слушается.. к примеру http://wlad2.ru/robots.txt

- почему в тайтлах страниц показываются анкоры которые на нее ссылаются? что за бред..

- зачем было менять интерфейс? этот убогий до ужаса.

ddvhouse,

В самой программе есть эти подписи! =)

1к доменов никому не интересен, большинсво даже серверных парсеров..

не пишите от большинства

Что-бы взять тематику к примеру женских сайтов, там 20к всего в лучшем случае будет, с этим программа и справляется!

она не может распределять потоки?

да

des7,

можно запустить прогу 10 и более раз подряд и забить ваши домены частями

по поводу скорости есть такой вот отзыв

png 115280.png
25.08.2012 16:40:51: при отправке запроса в сервис SeoProxy возникла ошибка 601: не удалось получить ответ от Yandex.Wordstat
25.08.2012 16:40:51: при получении страницы Yandex.Wordstat через SeoProxy была получена ошибка. Перезагрузим страницу через сервис SeoProxy
25.08.2012 16:40:51: при загрузке страницы уточняющих частотностей возникла ошибка. Повторные попытки не дали результатов. Проверьте качество соединения и работу сервисов. Процесс прерван
25.08.2012 16:40:51: процесс сбора частотностей ("!") Yandex.Wordstat завершен

ребят у всех так или только у меня?

часто обращаются проанализировать сайт, но доступа к robots.txt у меня нет.

можно ли в будущем сделать список robots.txt прям в программе??

что-то в новой версии вообще не хочет понимать robots.txt

взял и спарсил ваш сайт http://www.page-weight.ru/robots.txt

В результате тупо игнорируется

___

по моим сайтам вообще не хочет слушать правило с User-agent: pageweight

Всего: 363