Вопросы новичков. Часть 2.

plattoo
На сайте с 12.05.2010
Offline
195
#91
twiprogon:
С днюхой тебя! )

twiprogon, спасибо, дружище!

twiprogon:
plattoo, я просто подумал, что ты там что то плохое про меня подумал (пироги и т.п.).

Да ничё я плохого не подумал. Всё нормально.

Пошёл за огненной водой.

KC
На сайте с 22.09.2012
Offline
112
KFC
#92

как сливать мобильный траф с дора?

если на доре кнопка, то просто тдс надо настраивать реферы, или надо в корень htacces класть из пп?

и если фрейм, то тож тдс? :o

_Snake_
На сайте с 06.12.2010
Offline
151
#93

Чем удалить дубли ключей из нескольких БОЛЬШИХ файлов?

R
На сайте с 16.04.2014
Offline
56
#94
_Snake_:
Чем удалить дубли ключей из нескольких БОЛЬШИХ файлов?

Пингвином, он и неявные дубли удаляет тоже(в лицухе).

iph0ne
На сайте с 21.02.2012
Offline
110
#95
_Snake_:
Чем удалить дубли ключей из нескольких БОЛЬШИХ файлов?

KeyWordKeeper

Лучшие дропы покупаю тут! ( https://www.reg.ru/?rlink=reflink-8253 ) Зарабатывай на человеческой жадности! ( http://affiliate.olymptrade.com/?referrer_id=234014 )
_Snake_
На сайте с 06.12.2010
Offline
151
#96
rifmir:
Пингвином, он и неявные дубли удаляет тоже(в лицухе).

Работает с одним файлом, а надо удалить дубли сразу из нескольких

---------- Добавлено 28.08.2015 в 11:55 ----------

Тормозной, не работает с большими файлами.

orka13
На сайте с 28.03.2011
Offline
102
#97

дубли ищем в пределах каждого файла, или со всей группы?

какой размер в мб или в строках самого большого файла?

Продажи шаблона Google-Translate (Гугл Переводчик), скорость: 20 млн ключей/час, с прокси, без API. (http://zennolab.com/discussion/threads/prodazhi-shablona-google-translate.43684/) Переводит ключи, статьи, HTML+PHP файлы (целые сайты, доры) с сохранением верстки!
_Snake_
На сайте с 06.12.2010
Offline
151
#98
orka13:
дубли ищем в пределах каждого файла, или со всей группы?
какой размер в мб или в строках самого большого файла?

Выборка из нескольких баз, надо почистить от дублей(со все группы). Самый большой 11кк(~500 МБ).

Насчёт пингвина не понял, там есть список обработки, может это и есть то что надо? Вообще программа хорошая, видно человек пряморукий делал, но вот юзабилити...

orka13
На сайте с 28.03.2011
Offline
102
#99

Придется объединить все в один файл. Рекомендую TextPipe Pro, или аналоги (но KWK KeyWordKeeper_5B5, он на больших файлах режет\ковыряет строки в местах склейки, мне он очень жизнь попортил таким багом скрытым). Потом уже на дубли чистить. Другого не встречал решения.

Самая быстрая чистка на дубли в файлах до ~5-10 гиг у этого батника (smf_sortcleaner), все остальные проги отдыхают (Unified List Manager, Fast_Duplicates_Remover_v0.1, DupKill, truesort, tdk_Text Duplicate Killer). Он все в память грузит. У меня 16 гиг, а если больше, то, наверное, и побольше файлы обработает:

http://metaspamer.blogspot.com/2011/12/programma-dlia-udaleniia-odinakovykh.html

Если файл больше, то придется на линунсе делать через команду «sort». Или как я сделал: установил себе на винду юникские консольные команды в пакете - http://gnuwin32.sourceforge.net .

Потом командой в CMD (текстовик в папке «c:\33») :

sort -u -T c:\33 -o filename_no_dubli.txt filename.txt

Делает долго, но зато пределов в размере нет. Чистил так собственную базу метрики на 40 гиг. Где-то сутки вроде обрабатывало. ОЗП не грузить, просто медленно себе копирует файлы частями в пределах HDD, потихоньку чистя дубликаты.

UPD:

Текстовый редактор для работы с регулярками\автозаменой в таких больших текстовых файлах: EmEditor

_Snake_
На сайте с 06.12.2010
Offline
151
#100

Спасибо всем, остановился на сам лёгком варианте с пингвином.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий