а можно чуть подробней?
По поводу rewrite думал... Но также думал можно как-то использовать логи апач для ведения статистики по обращению к определенному url. В частности к этому архиву zip. Там в принципе видны обращения к этому файлу... И заодно анализировать. Там ведь и IP и браузер и т.д.
Топикстартер же спрашивал просто про свободные домены. Не expired и т.д. То есть доступные для регистрации, не важно с историей или без )
Keypass важные пароли (FTP, root доступ к серверу, webmoney и т.д.). Не столь важные, типа от форумов и прочего храню прямо в браузере FF, используя мастер-пароль несложный. Пока тьфу-тьфу. Но заметил, что уязвимость еще может быть от использования бесплатных wi-fi в гостиницах, к примеру, или кафешках...
Если в зоне ru/su/com думаю можно самому просканить в течении пары дней или того быстрее. И будет своя база... Можно будет даже в своем блоге разместить. Будет актуальна в течении некоторого времени. Потом через пару месяцев просканить только те занятые домены, которые к этому времени могут освободиться по дате paidtill и заново список свободных доменов. Таким образом список для сканирования будет еще меньше. Вот и все
Попробую, спасибо. Хотя все-таки нам проще юзать прикладную программу в Windows, web-сервер я решил использовать, только чтобы удобней было использовать MySQL. Лучше доработаю десктопную прогу. Еще раз всем спасибо :)
Вообщем, спасибо всем за ответы. Проблему решил совсем другим способом. Написал десктопную программу: весь файл CSV загружается в память. И побайтно выполняется поиск (стандартные функции поиска подстроки не используются, так как скорость снижается на порядки). Скорость хорошая.
Правда есть проблемка. Я планировал считать в количество строк, в которых встречается подстрока. А программа считает тупо количество вхождений подстроки. То есть в одной записи/строке может быть несколько подстрок, их нужно подсчитать как одну. Но это детали.
Теперь по вопросам.---------- Добавлено 30.03.2015 в 10:30 ----------
Не-а, не пробовал. Но пробовал обычные функции поиска в прикладной программе: достаточно долго. Поэтому наверное тоже не то.
grep "SUBSTRING" file.csv
Запросы практически всегда будут уникальными
Да, для запросов типа LIKE %SUBSTRING% не используются. Поэтому и не подходит.
Не пойдет. В строке ABSDSUBSTRINGEFG не будет найдет подстрока SUBSTRING, так как невозможно сделать запрос в полнотекстовом поиске типа *SUBSTRING*---------- Добавлено 30.03.2015 в 10:35 ----------
Честно говоря не понял этот SQL-запрос. Хотя мне именно количество и нужно. Сколько времени будет считать, если несколько миллионов записей? Этот запрос может использовать индекс?
Искал, но достаточно простого решения не нашел. Установка сфинксов и т.д. и т.п.---------- Добавлено 30.03.2015 в 10:41 ----------
В поле доменные имена. Подстрока часть доменного имени. Вот )
А в целом, всем спасибо за ответы. Если с прикладной программкой не срастется, попробую один из предложенных вариантов выше.
Смешно, но на большинстве обнуленных Google'ом моих сайтов трафик с Google вырос. Не из-за обнуления, конечно, но все равно интересное явление )
Видимо реально последние санкции только на PR сказались и никак на позициях и передаваемом весе.
Нет, нигде n/a не появилось после 8 марта. Только 0. Просто некоторые онлайн сервисы не различают 0 и n/a в Google
Обнулился PR на основном домене, на котором действительно немного торговал SAPE-ссылками.
Но почему-то обнулили и поддомен (форум), на котором ссылками не торговал никогда.
У кого-то было также? То есть Google на всякий случай забанил и форумы, расположенные на поддомене основного сайте?
У меня обнулились СДЛ сайты (оба висят в DMOZ). ГС оказались нетронутыми за редким ислючением :(