victim

victim
Рейтинг
189
Регистрация
12.02.2006
Должность
CheckTrust.ru
Интересы
SEO, Блоги, Стартапы
vano:
А почему solomono? Данные у них обновляются слишком медленно.

Ввиду отсутствия альтернатив :( А брать однородные данные из разных источников - неверно.

Приведу пример, берем страницы в индексе из ПС, а количество исходящих ссылок из одного сервиса, а количество входящих из другого - получится каша. У всех сервисов свои базы, в итоге получить что-то даже отдаленно напоминающее реальную картину не получится.

А беря данные из solomono мы получим что-то более или менее верное, пусть и немного устаревшее (на месяц, максимум на два), но в целом, для сайтов с историей от года, такое устаревание не слишком искажает результаты.

Сегодня ночью добавилась возможность указания региона для парсинга выдачи Google по запросу! Надеюсь, вам пригодится!

trahtor:
Топик рекламный, так же, как и стартпост. Хватит придуриваться.

Да у вас, батенька, паранойя! Запнувшись на улице, очевидно, считаете, что это происки злопыхателей?

iq2003:
это получается что-то наподобие xtool ?

Ну... что-то типа того, если совсем в общих чертах. А вообще программа помимо траста и заспамленности парсит более 30 различных параметров. Вот, если интересно чуть более подробно узнать - http://trust.alaev.info/about/params/

Сегодня выкатили обновление 1.3.28(29).

Можно добавлять сайты на проверку прямиком из выдачи по запросу, топ 10,20,30 или 50. Для Яндекса можно указать регион, возможно получится реализовать такую штучку и для Google.

Devvver:
victim, главное за меня не забудь. Как то пытались решить мою проблему, о которой я вКонтакте сообщал?

Извини, напомни пожалуйста, о чем речь? Или в контакте или здесь. Возможно, я в суете и позабыл о чем-то :(

Масол, Спасибо, что создали топик :)

Если кто не узнал, то я автор сей программы.

Dynamix:
Первые результаты наверное будут на офсайте http://alaev.info/blog/post/4724 в разделе каментов ) Но правда не стоит исключать модерацию )))

Можете исключать модерацию, я не режу злобные комменты. Если бы резал - то не пропустил бы те, что сейчас висят к посту в самом конце, даже пока без моего ответа, ибо некогда отвечать.

О результатах же отдельно стоит пост писать, опять же времени не очень хватает, а вот результаты есть от пользователей. Я надеюсь, они найдутся и отпишутся тут. Среди пользователей есть и достаточно уважаемые и авторитетные здесь люди.

Dynamix:
Вообще надо бы топик специально по ней создать на серчах, странно что автор об этом не позаботился заранее, ему бы еще кучу толковых идей на этапе разработки накидали.

Не создал по простой причине - я был уверен, что будет срач, будут требовать демо или версии для текста, которых я не предоставляю... И все скатилось бы к оскорблениям и т.д. Короче, у меня было мало фактов, которые бы хоть кого-то убедили. Сейчас фактов намного больше, но времени нет.

В общем, идеи я с радостью принимаю. Покупатели знают, что программа обновляется почти каждый день, вот, буквально 20 минут назад обновление выкатили.

kostiknc, Спасибо за первый отзыв!

PS За темой буду следить и по мере возможностей буду отвечать. Буду собирать идеи, разумеется.

Serega2711:
Если проблема в одной странице, то поставьте 301 редирект
RedirectPermanent /категория/пример123.html http://site.ru/пример123.html

ТСу надо наоборот :)

В общем-то, новые версии DLE сами исправляют такие ошибки при включенной опции "Исправлять неверные URL ЧПУ".

WebAlt:
Не, с помощью движка на ссылку print ставится rel="nofollow", не комильфо .
Для приведения к единому порядку мета-тег нужно просто отдельно прописать в print.tpl, а не закрывать двигом.

Точно, я что-то запамятовал. Сам же у себя в посте писал:

Найдите файл шаблона версии для печати print.tpl и откройте его. Сразу после <head> вставьте <meta name="robots" content="noindex">

Так что так и стоит поступить!

WebAlt:
РS: Млин, я раньше с помощью aviable меты noindex и nofollow прописывал, не очень удобно было, увидел на вашем блоге эту статью не так давно, спасибо, victim/АлаичЪ.

Всегда пожалуйста :)

DiAksID:
закрытая мета-тегом страница всё равно и постоянно будет тратить ограниченные время и ресурсы бота, выделенные на индексацию сайта (боты будут периодически проверять хотя бы изменения мета-тегов). т.е. действительно важные страницы индексироваться/переиндексироваться будут хоть чуть, но медленнее.

для закрытых в robots страниц/разделов эта проблема отсекается в корне - индексирующие боты туда просто не ходят ни для чего.

Да, мнение имеет право на жизнь. НО!

Во-первых, я советовал не оставлять внутренних ссылок на страницы, которые закрыты от индексации. По понятным причинам, я думаю.

Во-вторых. Разве ваш сайт посещает не более 100 человек в сутки? Ну, это для того, чтобы число посетителей и поисковых ботов было сравнимо по количеству. Неужели сервер не выдержит лишних 100 обращений в сутки?

10sec, Щас все по пунктам раскидаю для тебя :)

10sec:
Disallow: /*print*

Нет смысла, это закрывается настройкой в админке "Не индексировать страницы печати".

10sec:
Disallow: /*userinfo*

Что это? Пример урла можно и что он отображает?

10sec:
Disallow: /2010/
Disallow: /rules.html
Disallow: /statistics.html
Disallow: /favorites/
Disallow: /lastnews/
Disallow: /newposts/
Disallow: /page/
Disallow: /tags/
Disallow: /user/

Закрывается метатегами, как я описывал в своем посте, вы его читали.

10sec:
Disallow: /backup/
Disallow: /language/

Можно не закрывать, достаточно запретить листинг директорий на сервер. Файлы отсюда не будут индексироваться в любом случае. Только вызываете интерес этими запретами для злоумышленников.

10sec:
Disallow: /?author=*
Disallow: /?cat=*
Disallow: /?do=*
Disallow: /?p=*
Disallow: /?paged=*

Что это? неЧПУ урлы? Даже если и они смогут как-то существовать, то при правках, которые я описывал в посте, они будут содержать meta noindex.

Убедил? :)

10sec:
но я с ним не согласен, я делаю все через роботс (только по той причине что он не все дубли учел)

C чем несогласны? Что я не учел?

Давайте обсудим этот момент...

Всего: 1012