Kavabata

Kavabata
Рейтинг
123
Регистрация
12.09.2002

Был у Алексея. Узнал много "вкусного". Немного консультация напомнила анекдот. "Гопник в переулке спросил у Анатолия Вассермана сколько времени и неожиданно для себя получил высшее техническое образование". Консультация Алексея продлилась столько часов, сколько я стесняюсь даже писать.

Если честно я даже себя неловко чувствовал, так как уже через 2 часа ждал скромного намека от Алексея, что пора завершать встречу. Но Алексей не выгнал меня. А наоборот, рассказал мне больше чем я хотел. Определенную информацию Алексей прямо впрыснул в меня, а что бы я не только пафосно радовался, но и работал. Алексей дал мне софта с собственными разработками :) Реально спасибо, Алексей.

Sterh:

У Вас несколько различались группы деректив для Яндекса и для других роботов. Мы не Яндекс Поэтому руководствовались инструкциями для User-agent: *

Если вы хотели закрыть определенный раздел не только для Яндекса, но и для всех роботов, то получается, что сервис указал на ошибку в оптимизации сайта.

Cобственно это и имелось ввиду, когда говорилось, что сервис помогает посмотреть на сайт глазами поисковых ботов.
Очень часто вэбмастера узнают про существование страниц, о которых они и не подозревали, о битых ссылках, не правильных редиректах и т.д. и т.п.
И иногда пустяковая ошибка может мешать вывести сайт в ТОП..

Если бы я хотел закрыть для всех, то я бы закрыл. Я же не в претензии, мы же вроде все проплатили. Или какие то проблемы по проплате, что Вы решили еще раз рассказать про Яндекс ? За яндекс вроде и так ясно. Зачем размазывать кашу по чистому столу ?

По поводу сервиса, остаюсь при своем мнение, что непрозрачное ценобразование не удобно. Если бы можно было купить программу и не заморачиваться это одно. А загоняться именно, сколько там нужно доначислять денег и не нашел ли он какие то файлы которые не нужно находить, и которые закрыли в роботсе специально, плюс дополнительные переписки это не удобно. Как то с Xenu попроще, хотя у нее функционал более урезанный конечно. Это мое лично мнение, не кому его не навязываю.

Надеюсь я вредный просто или чего то не понял. Удачи Вам.

ок. сейчас отпишу тогда в поддержку к вам.

---------- Добавлено 06.04.2012 в 17:58 ----------

exp131, Там был мой косяк по роботс.тхт, я забыл что прописал только для яндекса.

Но павда почему то тех поддержка ответила "и к тому же наш сканер это инструмент анализа сайта, который позволяет вам увидеть его со стороны поисковой системы. Включая и запрещенные в robots.txt страницы."

А Вы, exp131, пишите ". Наши сканеры всегда учитывают robots.txt при работе. Если какие-то инструкции из вашего были проигнорированы или интерпретированы не правильно - пожалуйста сообщите нам об этом. С уточнением того, что по-вашему мнению, сработало неверно."

Так я не понял, если закрыто от индексации он же не будет учитывать или нет. А то мне кажется разные вещи пишите Вы и тех поддержка.

> В большинстве случаев, поисковики показывают цифру, близкую к реальной. На её основе расчитывается ориентировочная стоимость. Мы можем найти больше или меньше страниц. Если больше, то требуется доплата, если меньше - деньги возвращаются на счет.

поисковики показывают количество страниц исходя из robots.txt.Ваша же программа скачала в моем сайте страницы игнорирую robots.txt. Соотвественно получилось в 10 раз больше страниц. На другом сайте программа "При сканировании вашего сайта возможно обнаружена "петля" из ссылок, при которой происходит зацикливание сканера. На данный момент отсканировано уже более миллиона страниц" :) просто вот и страшно что там программа зайдет в какую то закрытую рубрику, где программист тупит и там наскачивает миллионы петель ссылок.

Попробовал Page Weight Online. Не понравилось что ценообразование похоже немного на визит к зубному врачу. Как бы не очень прозрачное. Так как до конца не известно сколько тебе это будет стоить. Как бы ты кладешь деньги, но становиться известным сумма только полностью после сканирования. И к сожалению возникает страх при сканировании больших и неизвестных сайтов. А вдруг сканирование будет происходить три недели и тебе это будет стоить тысяч 30 ? было бы круто понимать вилку цен.

Lisaskamelka:
Это Вам нужно искать хозяина реферальной ссылки и начистить ему лицо (мягко говоря)

ну не знаю. мне кажется для партнерки тоже наверное репутационный риск подобные методы. Тем более отгрузили им порядка 7 тысяч посетителей.

gotarget, а вы знаете владельцев http://virtual-style.ru/ ? Просто сегодня взломали мой сайт Butik2.ru и разместили там код с редиректом на http://virtual-style.ru/. Хотел бы познакомиться с владельцами.

Внизу код что разместили.

if( rr.indexOf("yandex") != -1 || rr.indexOf("google") != -1 || rr.indexOf("mail.ru") != -1 )

{

cookie = GetCookie('Zsto3iZ');

if (cookie == null)

{

var largeExpDate = new Date ();

largeExpDate.setTime(largeExpDate.getTime() + (12 * 60 * 60 * 1000));

SetCookie('Zsto3iZ','1',largeExpDate, "/");

document.location="http://virtual-style.ru/?ref_id=2361";

я заметил. Я ответ не получил, ни в личку SE, не на почту.

exp131:
Начало бета-тестрования планируется в конце декабря - начале января.


Нет. Обновление до второй версии будет платное. Но те, кто купил первую версию получат существенные скидки.

я вот бы заплатил бы еще чего нибудь. но хотелось бы реально анализировать большие сайты. Я вот сейчас реально обломался в плане покупки. Мне приходиться работать с большими СМИ. Получается что скачиваешь по два дня, а потом на выходе получаешь сообщение об ошибке. Облом не в стоимости программке, она дешевая. А в том, что реально время потраченного жалко на безнадежную выкачку сайта. Было бы по крайней мере бы утешительно, если бы скачалось 17 тысяч страниц например и ты бы мог хоть их проанализировать.

Всего: 337