- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
С днюхой тебя! )
twiprogon, спасибо, дружище!
plattoo, я просто подумал, что ты там что то плохое про меня подумал (пироги и т.п.).
Да ничё я плохого не подумал. Всё нормально.
Пошёл за огненной водой.
как сливать мобильный траф с дора?
если на доре кнопка, то просто тдс надо настраивать реферы, или надо в корень htacces класть из пп?
и если фрейм, то тож тдс? :o
Чем удалить дубли ключей из нескольких БОЛЬШИХ файлов?
Чем удалить дубли ключей из нескольких БОЛЬШИХ файлов?
Пингвином, он и неявные дубли удаляет тоже(в лицухе).
Чем удалить дубли ключей из нескольких БОЛЬШИХ файлов?
KeyWordKeeper
Пингвином, он и неявные дубли удаляет тоже(в лицухе).
Работает с одним файлом, а надо удалить дубли сразу из нескольких
---------- Добавлено 28.08.2015 в 11:55 ----------
KeyWordKeeper
Тормозной, не работает с большими файлами.
дубли ищем в пределах каждого файла, или со всей группы?
какой размер в мб или в строках самого большого файла?
дубли ищем в пределах каждого файла, или со всей группы?
какой размер в мб или в строках самого большого файла?
Выборка из нескольких баз, надо почистить от дублей(со все группы). Самый большой 11кк(~500 МБ).
Насчёт пингвина не понял, там есть список обработки, может это и есть то что надо? Вообще программа хорошая, видно человек пряморукий делал, но вот юзабилити...
Придется объединить все в один файл. Рекомендую TextPipe Pro, или аналоги (но KWK KeyWordKeeper_5B5, он на больших файлах режет\ковыряет строки в местах склейки, мне он очень жизнь попортил таким багом скрытым). Потом уже на дубли чистить. Другого не встречал решения.
Самая быстрая чистка на дубли в файлах до ~5-10 гиг у этого батника (smf_sortcleaner), все остальные проги отдыхают (Unified List Manager, Fast_Duplicates_Remover_v0.1, DupKill, truesort, tdk_Text Duplicate Killer). Он все в память грузит. У меня 16 гиг, а если больше, то, наверное, и побольше файлы обработает:
http://metaspamer.blogspot.com/2011/12/programma-dlia-udaleniia-odinakovykh.html
Если файл больше, то придется на линунсе делать через команду «sort». Или как я сделал: установил себе на винду юникские консольные команды в пакете - http://gnuwin32.sourceforge.net .
Потом командой в CMD (текстовик в папке «c:\33») :
Делает долго, но зато пределов в размере нет. Чистил так собственную базу метрики на 40 гиг. Где-то сутки вроде обрабатывало. ОЗП не грузить, просто медленно себе копирует файлы частями в пределах HDD, потихоньку чистя дубликаты.
UPD:
Текстовый редактор для работы с регулярками\автозаменой в таких больших текстовых файлах: EmEditor
Спасибо всем, остановился на сам лёгком варианте с пингвином.