- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А на сколько примерно страниц их может хватить? В любом случае я думаю это не страшно. Ведь пользователь вряд ли целенаправленно что-либо будет запоминать, и после нескольких просмотренных страниц, он уже и не вспомнить, сколько скачиваний было на первой. А вот если он зашел из-за одного файла и при простом обновлении страницы или повторном запуске браузера (через короткий промежуток времени) увидел меньшее значение (или значительно большее), то это кончено вызовет у него сомнение. Но этот вопрос уже помог решить silicoid, так что все отлично. Все уже функционирует, и завтра можно будет делать выводы об изменении конверсии.
я вам предложил нормальное решение, которое реализуется за 15 минут, а вы зачем-то прикручиваете чужую граблю
imagine, вы меня извините, но ваше "нормальное решение" обламывается на стадии: "Лезем в базу достаем дату добавления файла"
Дикий пионер,
4096/64 = 64 файла.
думаю, что на одного человека хватит ))
а потом он забудет сам, что качал
Ну так-то да, мое дело предупредить
я вам предложил нормальное решение, которое реализуется за 15 минут, а вы зачем-то прикручиваете чужую граблю
Спасибо за предложное вами решение, но меня более чем устраивает то, что сделал silicoid. Я на такие возможности даже и не надеялся. Плюсы этого способа очевидны. Во-первых, это настраиваемый диапазон кол-во скачиваний, значение которого будет видеть пользователь впервые попавший на страницу скачивания. Во-вторых, это его увлечение при последующих посещениях. Что будет выглядеть вполне естественным. И кол-во, на которое нужно увеличивать скачивания за сутки, также можно под себя настроить. А ограниченный размер куков (в 64 файла) не такой уж и минус, по крайней мере для меня.
генерируйте числовой хеш по URL в нужном диапазоне и прибавляйте дату. все крайне просто
imagine, вы меня извините, но ваше "нормальное решение" обламывается на стадии: "Лезем в базу достаем дату добавления файла"
Иии? как оно обламывается если есть дата? При желании можно взять любую дату привязанную к названию и или еще к чему-то (постоянной величине для данного файла (урл, время, название, размер и пр). А вот количество скачек завязанное на куки браузера, т.е. на браузер, а учитывая что пользователи сейчас пользуются не одним браузером ( телефон, планшет, другой комп и пр ), это даже не костыль и не грабля это в тысячу раз хуже этот шлак, даже для дорвея не годится. Поэтому если другие промолчали это не значит, что вы предложили годное решение, а человек его берет потому, что не понимает как и вы и еще и не умеет писать сам.
imagine, Так в том-то и дело, что даты нет. Где вы ее там нашли, я не знаю. Впрочем, вместо того, чтобы рассуждать про сфероконя и о том, какое вы предложили крутое решение, взяли-бы да написали кодэ.
а сейчас это выглядит, как "Я все знаю, но не скажу"
http://otlichnik.info/viewtopic.php?f=15&t=141
берите.
функция получения числового уникального хеif по url
диапазоны и прочее можно самому дописать.
а дата... текущая(unix) * коэффициент.
функция получения числового уникального хеif по url
А нафейхуа такие извращения?
hexdec(substr(md5($path),0 , $n));