flashlight

flashlight
Рейтинг
137
Регистрация
22.09.2006
di_max:
Извините, но ЛОГИ-то Web-сервера что показывают, в плане индексации роботом?

логи показывают, что робот проходит по всем урлам регулярно и тщательно!

di_max:
А здесь не путайте следствие с причиной!
Робот понимает только HTML-файл. И ему перпендикулярно, чем и из чего он сгенерирован.
Следовательно - проблемы не в роботе, а в работе ваших PHP-скриптов.

допустим, это так. Но тогда почему робот Google начисто лишен перпендикулярности и параллельности, отрабатывая все четко, ясно, безупречно? Он исходит из других принципов? Принципов геометрии Лобачевского?

di_max:
Вот Вам и пример бажности скриптов!
Откуда робот мог узнать другие URL страниц, если не со страниц генерируемых этим же бажным скриптом.Имхо, ну не телепатические способности робота к этому привели... ;)
Или бажности алгоритмов Яндекса? Когда есть, с чем сравнить, и это сравнение, увы не в пользу Яши.
satellitpro.ru:
хтмл тоже выпдает. По ТИЦ нет связи? например все ниже 50ти?
Например: бэкапить такой мусор яше мощностей жалко, или религия (ну может управление БД) не позволяет. Легла база таких - хер с ней. Само естественным путем проиндексируется потом. Как тупой вариант. ЗАодно и выдача чище.
здесь сказать сложнее, ввиду отсуствия достаточного количества данных, но тоже есть подозрения, что что это не так. Море нулевых по параметрам сайтов успешно стоят в индексе при тех же условиях, что и выпадающие, более высокие.
Skie:
м.б. такой вариант, при включении ЧПУ у сайта появляются новые страницы и робот просто их индексирует. Ведь старые (без ЧПУ) при этом не возвращаются в индекс, поскольку их уже не существует.Или что-то происхолит иначе?

еще раз попробую обрисовать гипотезу: выпадение части страниц просиходит не по

  • неуникального контента
  • продажных ссылок
  • наличия ЧПУ
но по причине каких-то особенностей робота\алгоритма, который таки считывает в любом случае положенное количество страниц, но не вносит их в индекс по какой-то причине в индекс. Игра с включением-выключением ЧПУ иногда приводит к тому, что сайт возвращается в индекс.

Т.е. - выпадение согласно предположению исключительно техническая причина, и скорее всего кроется в несовершенности сканирования(или алгоритма обработки) для сайтов на PHP.

PS (про "уникальность") ради показательного прикола такой факт - есть такой компонент на джумле - календарь. Типа ежедневника. Так вот на сайте, запущенном 2 м-ца назад робот нащупал его, и начал добавлять его страницы от апа к апу по 1000 примерно. Сейчас в индексе 5000 страниц месяцов и дней недели аж до 2150 года кажется :)

praide:
Это сайты , которые просили посмотреть коллеги (проблемы были по выпадению) и с форума.

И, я так понимаю, предположение о выпадении было увязано с неуникальностью контента? а как насчет контрольной группы к каждому этому сайту по таким напр. показателям как

  • хостинг
  • движок
  • чпу

в количестве не менее 5-ти сайтов? если этого нет, то даже по 70 сайтам неправомерно выдвигать предположение о связи неуникальности контента и выпадения части страниц

praide:
За последний месяц просмотрел шту 70, многим не писал, выборка достаточно репрезентативная, у меня просто есть свой сервис по проверки уникальности, доходит до смешного, уникального контента на главной (смотрел только их) не выше 20%. В личку могу скинуть примеры, это не мои сайты.

так эти 70 твои сайты?

praide:
Смотрел много выпавших сайтов. Сугубо ИМХО, как правило рулит неуникальность, или Сапа.

какая статистика по слову "много"? как в 38 попугаях? если опираться на данные исследований описаных в топике - то по 20 сайтам "руления" неуникальности или сапы незамечено. Однако, более 6 ссылок на странице не выставлялось, и особо стремные ссылки блеклистились

satellitpro.ru:
praide, их еще будет объединять молодость. :)ИМХО. мне кажется не в сапе дело.
То, что не в сапе, это уже точно понято. Но в тех наблюдениях были и сайты возрастом более 1.5 лет, которые выпадали, и вставали после письма к Платону. Кстати что касается уникального контента - таки тоже не определяющее свойство. Один чистоговносайт с 1500 грабленых страниц утерял их на полгода. И нашлись они, когда выяснилось, что хостинг просто затыкался, когда сайт щупал робот Яндекса. Тут решилось сменой хостинга. Кстати сказать, что робот сапы тоже валил этот сервер, когда доходил до примерно 500-й ссылки.
K. Ermakov:
Хорошо.
Включение/выключение ЧПУ вы проверили, на индексацию, вроде бы, влияет.
Не хотите проверить влияние включения/выключения сапы? :)

Эта мысль, конечно была превуалирущей в том исследовании. Но несколько проб в русле общего эксперимента (в т.ч. с другими сайтами) показали, что это не является причиной выпадений.

flashlight добавил 04.03.2008 в 16:55

_Chaser_:
Джумла любит клонировать страницы (itemid, хоть со встроенным, хоть без ЧПУ) - Вы смотрели сколько страниц было в индексе, и сколько уникальных страниц было на самом деле, может в этом одна из причин (+сапа и каталоги)?

наблюдения развивались на сравнении с 15 другими сайтами, которые находились в тех же условиях. Еще один сайт вел себя очень похоже и был весьма аналогичен испытуемому(сапа, каталоги,itemid) по нему писалось Платону, после этого сайт встал в индекс (вместе с саповскими ссылками, но сильно пал в выдаче)

все же подозрения падают на какие-то особенности робота, ведь все "выпадающие" сайты строго посещаются роботами.

flashlight добавил 04.03.2008 в 16:56

Radder:
У меня порядка 60 сайтов под джумлой в сапе, могу сказать, что у меня вылетели сайты, как с ЧПУ, так и без. Так что возможно причина не только в этом

Читай внимательнее - ЧПУ не указывается как причина, но игра с ним приводит к возвращению в индекс(рабочая гипотеза).

flashlight:
прогнал сайтпо тарифу за 2.99 (в программе скидок)

Сегодня яндекс рапортует о 10 появившихся бэклинках. Это радует, значит процесс идет

flashlight добавил 04.03.2008 в 20:42

Еще вопрос к ТС от слепоглухотупого:

там можно задавать несколько описаний\заголовков или же этот сервис для поклейки анкоров сделан?

flashlight добавил 05.03.2008 в 05:25

С большим удивлением увидел у Вас в новостях... повышение цен в два раза :)

Ребята, вопрос встал и встал очень остро.

Менять коней, да еще так резко (при еще непонятных результатах), это некрасиво.

Если это повышение цены касается и тех, кто вошел по старым, я предпочту получить оплаченное обратно. Скажите, как это можно сделать?

Это не жадность.

Это дело принципа.

прогнал сайт

по тарифу за 2.99 (в программе скидок)

забавно было глядеть, как процесс идет, потом все подвисло.

вопрос - а выходить то можно после запуска, а то вдруг процесс заветный прервется? :)

интерфейс очень простой, возможно даже слишком простой, посему как это еще не слишком врубился, ну вот такой я тупо-неврубной.

Надеюсь, дальше будет лучше.

Сайт стоит на вебмастертулс, будем мониторить процесс появления бэклинков.

писем прикатило 239 штук

посыпаю голову пеплом.

Докатился ап до моих 15 сайтов.

явно прослеживается "доап" тех, которые ожидались но не получили в прошлый мощный.

Отчитываюсь - тестовый сайт, который был здесь прогнан одним из первых сегодня получил PR2, а тиц30 у него уже давно(рост был такой 10-20-30-30 по последним апам)

Вот и взвешенные данные среднестатистического результата сервиса - ТИЦ30 PR2

(при условии прямых рук)

Всего: 536