Ввиду отсутствия альтернатив :( А брать однородные данные из разных источников - неверно.
Приведу пример, берем страницы в индексе из ПС, а количество исходящих ссылок из одного сервиса, а количество входящих из другого - получится каша. У всех сервисов свои базы, в итоге получить что-то даже отдаленно напоминающее реальную картину не получится.
А беря данные из solomono мы получим что-то более или менее верное, пусть и немного устаревшее (на месяц, максимум на два), но в целом, для сайтов с историей от года, такое устаревание не слишком искажает результаты.
Сегодня ночью добавилась возможность указания региона для парсинга выдачи Google по запросу! Надеюсь, вам пригодится!
Да у вас, батенька, паранойя! Запнувшись на улице, очевидно, считаете, что это происки злопыхателей?
Ну... что-то типа того, если совсем в общих чертах. А вообще программа помимо траста и заспамленности парсит более 30 различных параметров. Вот, если интересно чуть более подробно узнать - http://trust.alaev.info/about/params/
Сегодня выкатили обновление 1.3.28(29).
Можно добавлять сайты на проверку прямиком из выдачи по запросу, топ 10,20,30 или 50. Для Яндекса можно указать регион, возможно получится реализовать такую штучку и для Google.
Извини, напомни пожалуйста, о чем речь? Или в контакте или здесь. Возможно, я в суете и позабыл о чем-то :(
Масол, Спасибо, что создали топик :)
Если кто не узнал, то я автор сей программы.
Можете исключать модерацию, я не режу злобные комменты. Если бы резал - то не пропустил бы те, что сейчас висят к посту в самом конце, даже пока без моего ответа, ибо некогда отвечать.
О результатах же отдельно стоит пост писать, опять же времени не очень хватает, а вот результаты есть от пользователей. Я надеюсь, они найдутся и отпишутся тут. Среди пользователей есть и достаточно уважаемые и авторитетные здесь люди.
Не создал по простой причине - я был уверен, что будет срач, будут требовать демо или версии для текста, которых я не предоставляю... И все скатилось бы к оскорблениям и т.д. Короче, у меня было мало фактов, которые бы хоть кого-то убедили. Сейчас фактов намного больше, но времени нет.
В общем, идеи я с радостью принимаю. Покупатели знают, что программа обновляется почти каждый день, вот, буквально 20 минут назад обновление выкатили.
kostiknc, Спасибо за первый отзыв!
PS За темой буду следить и по мере возможностей буду отвечать. Буду собирать идеи, разумеется.
ТСу надо наоборот :)
В общем-то, новые версии DLE сами исправляют такие ошибки при включенной опции "Исправлять неверные URL ЧПУ".
Точно, я что-то запамятовал. Сам же у себя в посте писал:
Найдите файл шаблона версии для печати print.tpl и откройте его. Сразу после <head> вставьте <meta name="robots" content="noindex">
Так что так и стоит поступить!
Всегда пожалуйста :)
Да, мнение имеет право на жизнь. НО!
Во-первых, я советовал не оставлять внутренних ссылок на страницы, которые закрыты от индексации. По понятным причинам, я думаю.
Во-вторых. Разве ваш сайт посещает не более 100 человек в сутки? Ну, это для того, чтобы число посетителей и поисковых ботов было сравнимо по количеству. Неужели сервер не выдержит лишних 100 обращений в сутки?
10sec, Щас все по пунктам раскидаю для тебя :)
Нет смысла, это закрывается настройкой в админке "Не индексировать страницы печати".
Что это? Пример урла можно и что он отображает?
Закрывается метатегами, как я описывал в своем посте, вы его читали.
Можно не закрывать, достаточно запретить листинг директорий на сервер. Файлы отсюда не будут индексироваться в любом случае. Только вызываете интерес этими запретами для злоумышленников.
Что это? неЧПУ урлы? Даже если и они смогут как-то существовать, то при правках, которые я описывал в посте, они будут содержать meta noindex.
Убедил? :)
C чем несогласны? Что я не учел?
Давайте обсудим этот момент...