- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
хз, по моему если отсортировать по алфавиту(или даже к примеру первым 3 символам), кол. символов в строке, сохранить в разные файлы, то можно хоть 10гб провернуть ))
Тогда легче уже разбить файл на части и нормально обработать каждый (:
Ограничением будет только размер жесткого диска.
Тогда легче уже разбить файл на части и нормально обработать каждый (:
Ограничением будет только размер жесткого диска.
ну так если просто разбить на части то нужно будет сравнивать строки из разнх частей, а в моём случае только внутри каждой части )
или мы об одном и том же )
Тогда легче уже разбить файл на части и нормально обработать каждый (:
Учи уроки двоечник!
Беру свои слова обратно! Смотря как разбить!
Учи уроки двоечник!
Разбить на куски и сделать из них выборки по алфавиту, почистить на дубли и собрать обратно. В чем проблема?
геморно, не ? + память быстрее.
конечно быстрее, но только в случае с хэшами
иначе её много надо
1 кей это ~20-25 символов
80 лям * 20 ~ 2гига
ну так если просто разбить на части то нужно будет сравнивать строки из разнх частей, а в моём случае только внутри каждой части )
или мы об одном и том же )
Не сразу втыкнул, что ты имеешь в виду. Об одном и том же, в принципе. Но гемерно это все.
Если так рассчитать, то для обработки 300кк строк (где-то 10гб с лишним), нужно чуть более гига оперативы для хранения хешей, что не проблема для любого десктопа...
Но при таких объемах, чую, хеш начнет иногда повторяться, хоть это и не особо критично.
Учи уроки двоечник!
Беру свои слова обратно! Смотря как разбить!
Сформулировал мысль в голове => Обдумал => [Сформулировал конкретнее|Передумал] => Обдумал еще лучше => [Напечатал|Передумал] => Нажал "Ответить".
На стенку, около рабочего места.
BredoGen. добавил 07.12.2010 в 11:15
конечно быстрее, но только в случае с хэшами
иначе её много надо
1 кей это ~20-25 символов
80 лям * 20 ~ 2гига
Это если ключевики из символов кодируемыми одним байтом. Т.е юникод кириллица идет лесом и будет жрать целых 2 байта за символ... А это уже ~4гб, что уже дохрена :)
ТС с этой базой похож на хомяка с набитым ртом. Ахахаххахахаа! Набрал и на знает что делать!
alex1113, В точку
ну может он какой нить мета-поисковик долго-долго парсил. решил сделать свою базу Пастухова.
Строки занимают слишком много памяти, их лучше вообще не хранить.
Мой вариант:
Версия для винды: http://dl.dropbox.com/u/16333142/unique.tar.gz
Доброго времени, уважаемый.
извиняюсь за нубский вопрос, подскажи пожалуйста как пользоваться этим скриптиком, или где можно почитать руководство...🚬 Заранее Благодарен за ответ.