- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день всем тут проживаюшим.
Смотрю вот на разные счетчики в основе которых
1)банеры(LI)
2)скрипты(Google)
3) или парсинг апач логов(тут чуть ниже на странице:) )
И все не понимаю - почему нету счетчиков типа 1 но с возможностями 3
Имхо 1 и 2 считают только посетителей, и собирают вообще и так ясную информация о браузерах и разрешенениях экрана..
А вот счетчики server-side как говориться могут ловить и поисковых ботов. Что временами очень полезно.
Но вот проблемка - обычно такие счетчики работают только в пределах одной площадки\одного апача\одной базы данных.
Неправильно это как товарисчи!
Подумал я подумал и решил свой "серверный" счетчик в инет выложить.
Чтобы люди могли пользоваться "чисто серверной" статистикой вне пределов одной железяки.
Проект правда еще не запушен, да и "писькомерки" еще свое графическое оформление не обрели.. но всеже..
Чтобы хотели знать люди про свой сайт КРОМЕ того что может предложить Li и другие подобные системы.
Я могу видеть роботов что по вам лазиют(это единсвеное, но серьезное отличие), я могу выдавать топы запросов по класам\номерам\видам страниц.
Ну и я могу считать ПР каждой Вашей страницы(и выдавать whole-size) и проверять по кешу гугля не обманываете ли вы меня..
На форуме в свое время такая система обсуждалась( по глобальной статистике индексации для бирж ссылок), было сказало много про и контра.
Все свелось к тому, что нельзя на коленке такую систему написать..
Вот хотелось бы еще раз про и контра услышать и подумать еще раз... Нужен ли такой сервис комьюнити или нет..
Подумал я подумал и решил свой "серверный" счетчик в инет выложить.
И где же это чудо?
Да! Где? м?
Как я уже говорил - прожект еще не запушен.
А так вообще в данный момент пишу текстовки
Одну уже закачал
http://www.scanlog.ru/getcode/
Нужно быть очень позитивно настроенным буратино, чтоб поставить себе на сайт такой код. Какие-то проблемы у сайта статистики - все сайты клиентов дружно накрываются медным тазом и ползут на кладбище. Да даже и без проблем этот код вносит задержку в пару десятых секунды при идеальном стечении обстоятельств.
Хм а что в этом плохого? в паре десятых секунды.
Можно еще обрашаться не по DNS а по IP и работать с неблокируюшими сокетами.
Можно врубить кеширование и вывалить клиенту content-length и закрыть конект к базе данных ПЕРЕД счетчиком..
Да и таймауты в коде прописаны.
При использовани fsock их можно указывать в десятых секунды.. и никаких подвисонов..
>Да даже и без проблем этот код вносит задержку в пару десятых секунды при идеальном стечении обстоятельств.
Сервер сам на себя : 0.0010 - у него там так и написано
Рабочий ноут на сервер(2МБ выход): 0.0086-0.02( скачет чет ужастно )
Главное помнить что добавление урла на сервер ничего не делает.
Просто добавляет запись в HEAP базу данных. cron ее потом разберет
Хм а что в этом плохого? в паре десятых секунды.
То, что это много для более менее серьёзного проекта (тысяч 20 pageview в день). Дополнительные апачи, "подвисшие" на запросе к серверу статистики, кушают память и процессор.
Да, если планировать, что время жизни сервиса будет настолько небольшим, что не успеет возникнуть необходимость менять IP-адрес.
И никакого учёта посещаемости, так как за слишком маленький таймаут запрос может не успеть выполнится.
Чтож за сервер такой которому пара десятков лишних просесов в тягость?
Серьезные сервера с серьезным трафом на таких не стоят
.. Ну можно например складировать статитику на сервере, а потом по достичению N-записей или таймаута сразу кучей скидывать мне.
Тоесть повторить часть моей работы на себе..
>Да, если планировать, что время жизни сервиса будет настолько небольшим, что не успеет возникнуть необходимость менять IP-адрес.
А что мешает разослать пару километров спама с просьбой обновить конф файлы?
>И никакого учёта посещаемости, так как за слишком маленький таймаут запрос может не успеть выполнится.
как говориться задача серверной части.
1.приконектить TCP сокет ко мне.. это две команды
2.залить на меня данные
3.не ждать ответа - можно отваливать.
Получается единсвеный узкий момент - проход TCP трафика..
окей врубаем не блокируюший режим и отправляем запрос в самом начале и все работает паралельно.
Тоесть покуда никаких серьезных контра я не услышал...
кто еще что думает?
Тоесть покуда никаких серьезных контра я не услышал...
Если всё сказанное выше для вас несерьезно, то вы очень сильный и целеустремленный человек :D
ИМХО, идея неудачная. Если человеку нужна серверная статистика, то он анализирует логи Апача (которые при желании можно собирать логи с нескольких серверов и складывать в централизованное хранилище). И никакой головной боли.
Доступ к такой статистике требует хорошего такого доступа на сервер :)
Ни другу показать, ни в обший доступ не выложить.
А главное - система сама в себе, нету сводной статистики..
в общем AWstat это сено :) для собаки, что на сене :)