Radli

Рейтинг
36
Регистрация
08.08.2006

to vanila

лично для меня не достаточно.

а где это свободная статистика, где вам показывается посещения ботов, когда они зашли и какие ваши страницы просмотрели?

to T.R.O.N.

допустим нужна, чтобы следить с каких сайтов (где находятся ваши ссылки и/или баннеры) заходили чаще, и соответственно делать выводы. На кой мне вешать баннер и платить за него, если с этого ресурса не было переходов.

Просьба не флудить мессагами типа "у меня тиц упал :( ", "у меня тиц был х, а стал х/2 :( "..

Ну просто реально читать не успеваю и вникать. Прочитал страничку, а уже 2 прибавились.

Лучше конкретно разбираться почему, ведь есть сайты которые поднялись либо тупо ждать.

П.С.: читатель 18 странички мазе фака.

to morfiysss

1. Титл должен на статических страницах прописываться ручками, на динамических ти па "конкретная новость" должен генериться скриптом (например вставить название новости), но при этом чтобы можно было еще добавить к нему либо слева либо с права что-нибудь (например: Раздел Бизнес).

2. На счет статистики не соглашусь с T.R.O.N.

Ведь статистика разная бывает. Лично у меня есть следующие топы которые генерятся за указанный мною период времени:

2.1.страниц откуда зашли (урл страницы, кол-во переходов с нее, кол-во зашедших посетителей),

2.2.сайтов откуда зашли (урл сайта, переходов с сайта, кол-во зашедших посетителей).

2.3. посетителей (ид посетителя/либо название робота, время первого захода, кол-во заходов, кол-во просмотренных страниц)

2.4.Посещения (ip, useragent, ид посетителя/либо название робота, логин если авторизован, урл страницы откуда пришел, куда зашел, время захода, время пребывания, список просмотренных страниц сайта)

2.5.Регионы, тут делится по странам, потом по провайдерам.

Еще планирую добавить топ 2.6. кл. фраз с которых зашли, их позиции в конкретных поисковиках.

3. Ну еще (для обменщиков) можно сделать сервис проверки обр. ссылок при обмене. И при необнаружении те объекты твоего сайта, где размещаешь ссылки на них коментировались автоматом и отправлялось бы письмо им на ящик "Типа моя ссылка не найдена, если поменяли урл, будьте добры сообщить и т.д."

4. если есть время можешь реализовать пару сервисов site-auditor.

Например некий скрипт твоего сайта через определенный промежуток времени будет определять тиц сайта, pr страниц позиции сайта по опр. кл. словам, и вести отчетность. Затем ты можешь эту статистику анализировать (Но разумеется это велосипед)

5. Рассылка. Очень удобна пишешь типовое письмо и нажимаешь кнопку (разумеется в добрых целях).

Лично у меня в движке база e-mail адресов рассортирована по разделам (Администраторы для обмена ссылками, Клиенты для рассылки им очередного приглашения, или просто поздравить, и куча других)

6. Ну и конечно нужна пакетность, чтобы функционалы системы не зависели друг от друга и можно было писать патчи, для расширения и исправления ошибок. Не однократно сталкивался с проблемой апдейта когда одни и теже скрипты на разных проектах отличаются и апдейт с помощью одного патча не сделаешь (вот и приходилось на каждом сайте ручками править - тьфу, тьфу :) )

пока все.

MASTAKILLA:
А что если вам сделать, чтоб по дефолту пользователь попадал на www.site.ru/rus/ - это будет морда сайта, а дальше переходит на инглишь версию и урл вида www.site.ru/eng/ - у меня так и все довольно неплохо работает.;)

Если делать так как вы говорите, то не будет ли некой пессимизации на этот урл, он ведь не корень а подкатегория?

А нельзя выдавать людям зашедшим из России русский контент, а др. английскую версию, если можно то как? Хотелось бы и ботам также, например яндексу русский контент, а гугле английский.

The WishMaster:
А какое это отношение имеет к клоакингу?

Никакого, просто хотел узнать как с этим именно может бороться робот на автомате.

Ведь по стуку это очень трудоемко, да и неэффективно (нет гарантий, что кто-нибудь когда-нибудь настучит).

А по поводу "ключевиков в скрытом диве" так они могут содержаться и всплавающем подменю - и это есть дизайнерское решение.

dragonfly:

Как работает робот? Точно это знаю лишь его создатели. Общий принцип - робот запрашивает содержимое странички сначала с официальным UserAgent и IP, а потом с "неофициальным" (сразу же) и сравнивает.

И сверяет он не содержимым сохраненной копии, а с текущим содержимым странички, но полученным с другого IP. Потому что если бы он сверял с сохраненной копией, то тогда бы всё динамическое содержимое страницы (например, новости, которые могут обновляться каждую минуту) попадали бы под бан.

Думаю это предположение неверно.

А что если страница содержит ряд блоков которые выдают инфу рандомом,

Например опросник: есть в базе сайта 10 активных опросов, и он выдает один из них рандомом.

Тогда робот одновременно зайдя в один и тот же момент с разных ип или с разным useragent (как хотите) - получит разный html-код.

Но это не есть клоакинг и не есть спам, просто страница выдала им разные опросники. За это ведь банить нельзя => ваше предположение ошибочно!

Тема остается открытой...

Так как происходит проверка клоакинга?

И как происходит бан за скрытые дивы?

Я знаю что это директива, а что она означает, и почему мне никто не даст ее менять?

Спасибо dragonfly

Повторюсь, я не хочу как либо дурить бота, просто хочу разобрать как чо.

Из ваших размышлений получается что внутренную перелинковку (подменю) не стоит делать с помощью всплывающих дивов ибо их бот не учитывает и это очень может сказаться при подсчете pr, виц.

Кто нить ответить на мой вопрос:

"А как же со скрытыми дивами, то яндекс бориться, в которых может быть как менюшка, так и список кл. фраз, где нить под футером замостыренные.

Не ужели только по стуку?"

а что есть "expose_php =off"

у меня на хостинге лично в php.ini он есть?

Всего: 115